Immer öfter hört man von künstlicher Intelligenz (KI), einem an sich sehr polarisierenden Thema. Während die einen die KI (englisch AI für Artificial Intelligence) für so etwas wie den Heiligen Gral des digitalen Zeitalters halten, scheinen viele andere sie regelrecht zu verteufeln. Nicht selten werden Horrorszenarien zitiert, wie man sie aus dem Film Terminator kennt. Dabei sind sich viele nicht wirklich darüber im Klaren, was damit eigentlich gemeint ist.
Die Ursprünge der KI
Der Begriff der künstlichen Intelligenz wurde bereits im Jahr 1956 durch den Informatiker und Kognitionswissenschaftler John McCarthy und seine Kollegen im Zusammenhang mit der Dartmouth-Konferenz geprägt. McCarthy gilt neben anderen als einer der Gründerväter der KI. Auch Wissenschaftler wie Alan Turing, Allen Newell, Herbert A. Simon und Marvin Minsky waren auf dem Gebiet tätig.
Im Wesentlichen wurde die KI seinerzeit wie folgt definiert: Es handelt sich um eine Maschine, die dazu in der Lage ist, Aufgaben zu bewältigen und Probleme zu lösen, wofür bisher der Einsatz und die Unterstützung menschlicher Intelligenz erforderlich war. Als Gradmaß einer Intelligenz sollte dabei die Fähigkeit des eigenständigen Lernens dienen.
Intelligenz durch Algorithmen
Im Grunde genommen basiert die KI nach wie vor auf einer Abfolge mathematischer Funktionen. Diese müssen wie alle Computerprogramme aufgerufen werden. Im Bereich der Informatik wird in dem Zusammenhang von Algorithmen gesprochen. Einfach gesagt sind dies eindeutige Handlungsvorschriften, die zur Lösung von Problemen zum Einsatz kommen.
Und da es auf dem Feld der künstlichen Intelligenz überaus vielschichtiger Programmstrukturen bedarf, werden diese im Allgemeinen in mehrere verschiedene Teilaspekte aufgeteilt. Dabei geht es beispielsweise um die Simulation menschlicher Hirnfunktionen, Spracherkennung und -bildung, Selbst-Programmierung, Erfassung und Einschätzung komplexer Zusammenhänge, Verbesserung eigener Prozesse und Ähnliches.