Künstliche Intelligenz (KI)- Was ist das?

Ziel dieses Blogs:

In diesem Blog erläutere ich, dass die Vergleichbarkeit der Künstlichen Intelligenz (KI) mit der menschlichen Intelligenz  aus mehreren Gründen nicht haltbar ist und diese Begriffsnähe möglicherweise andere Gründe hat, die nicht unbedingt seriös sein müssen.

Der Begriff Künstliche Intelligenz weckt Erwartungen, die eine KI nicht erfüllen kann, weil sie eben kein biologisches System ist, sondern ein maschinelles System. Ich werde in diesem Blog zeigen, dass die biologischen Systeme sich fundamental von den Computersystemen unterscheiden. Diesen Unterschied zu verstehen ist hinsichtlich der Möglichkeiten und Grenzen von KI von zentraler Bedeutung.

Manchen Akteuren rumd um die KI scheint es  mehr darum zu gehen, die KI in die Nähe der menschlichen Intelligenz zu rücken, um ggf. Forschungs- oder Werbebudgets und die nötige öffentliche Aufmerksamkeit zu bekommen als bei einer seriösen Darstellung von KI. Möglicherweise möchten auch einige Akteuere von ihren eigentlichen Zielen ablenken oder ihre KI-Projekte moralisch legitimieren. Auf alle Fälle wird bei der begrifflichen Nähe der KI zur menschlichen Intelligenz die menschliche Sprache als Intelligenzverstärker vermindert. Sie führt zur Oberflächenverdoppelung und damit in die Irre.

Viele Begriffe der KI scheinen Marketing oder Ideologie zu sein Dieser Blog will also aufräumen mit der begrifflichen Irreführung von KI, umso zu einer seriöseren Einschätzung der KI zu kommen.

Dabei sei angemerkt, dass der Autor kein Gegener der KI ist. Sie wird uns in vielen wichtigen Fragen wertvolle Dienste leisten, die wir ohne die KI nicht lösen könnten.  Die KI-Anwendungen können auch Unheil anrichten, wenn man an durch die KI gesteuerte Killermaschinen denkt. Die Möglichkeiten, Chancen, Grenzen und Gefahren setzen aber eine seriöse Begriffsbestimmung der KI voraus, sonst vergeben wir die Chance, dass menschlichens Denken folgerichtiges und damit antizipatorisches Probehandeln sein kann.

Was ist eigentlich KI?

Im Kern ist KI immer noch Datenverarbeitung durch verschiedene Verfahren der Informatik. Informatik ist angewandte Mathematik. Computer sind im Rechner. Sie sind von Konrand Zuse erfunden worden, um Daten zu verarbeiten, weil unser Gehirn für die exakte Verarbeitung großer Datenmengen nicht geeignet ist. Eine umfassende Definition der KI findet man im Ethikrichtlinien der EU, im Glossar auf Seite 49. Ich zitiere:

Künstliche-Intelligenz-(KI)-Systeme sind vom Menschen entwickelte Software- (und möglicherweise auch Hardware-) Systeme, die in Bezug auf ein komplexes Ziel auf physischer oder digitaler Ebene agieren, indem sie ihre Umgebung durch Datenerfassung wahrnehmen, die gesammelten strukturierten oder unstrukturierten Daten interpretieren, Schlussfolgerungen daraus ziehen oder die aus diesen Daten abgeleiteten Informationen verarbeiten und über die geeignete(n) Maßnahme(n) zur Erreichung des vorgegebenen Ziels entscheiden. KI-Systeme können entweder symbolische Regeln verwenden oder ein numerisches Modell erlernen, und sie können auch ihr Verhalten anpassen, indem sie analysieren, wie die Umgebung von ihren vorherigen Aktionen beeinflusst wird. (Fussnote) Menschen entwerfen KI-Systeme direkt, sie können deren Entwurf aber auch mithilfe von KI-Techniken optimieren.

Was ist damit die besondere Herausforderung einer KI-Programmierung?

Die besondere Herausforderung liegt darin, Probleme oder Fragestellung der analogen Welt so in mathematische Verfahren zu transformieren, dass sie Maschinen, die nach einer Binärlogik arbeiten, so umsetzen können, wie es vom Programmierer beabsichtigt sind. Die Maschine selber, arbeitet dann diese Fragestellung nach mathematischen Regeln ab, die man Algorithmen nennt oder sie optimiert die Abarbeitung selbstständig durch sogenannte subsymbolische Verfahren, zu denen auch das Verfahren Deep-Learning zählt.  Für die Verfahren zum Deep Learning werden große und geeignete Datenmengen benötigt, die durch Daten Sciencisten so aufbereitet werden, dass der gewünschte Effekt des Maschinenlernens überhaupt eintreten kann. Der Maschinenlearning-Designer beaufsichtigt die Optimierungsprozesse durch eine grafische Obefläche, die aussieht wie neuronale Netze, aber die keine neuronalen Netze sind, sondern grafische Darstellung hochkomplexer Algorithmen.

Der besondere Punkt der Herausforderung ist, dass biologische Systeme mit der analogen Welt über viele millionen Jahre durch die Evolution optimiert wurden. So können sich Menschen und Tiere ohne Probleme in dynamischen  Bewegungswelten anpassen. Die Wassertropfen auf der Windschutzscheibe eines Autos mögen hier und da die Sicht auf die Straße und den Verkehr erschweren. Wir können unsere Fahrweise anpassen und  das Auto sicher steuern auch dann, wenn es regnet. Wir zeigen robustes Verhalten.

Für den Computer und der KI  ist jeder Regentropfen ein Riesenproblem, weil jeder einzelne Regentropfen in ein eindeutiges mathematisches Datum umgewandelt und adäquat verarbeitet werden muss. Geschieht das nicht, ist die KI komplet mit der Steuerung des Autos überfordert, weil es die Regentropfen nicht oder sehr fehlerhaft verarbeitet, was zu fatalen Fehlsteuerungen des Gesamtsystems führen kann. Hier zeigt sich, dass es nur eine KI gibt, die hochspezialisiert und optimiert ist für ganz bestimmte Datenmengen. Ändern sich die Daten oder die Spezifik der Datenmenge, funktioniert die KI-Lösung nicht mehr. KI Systeme sind also nicht unbedingt robust.

Es gibt also aktuell keine universelle künstliche Intelligenz, sondern nur eine sog. Narrow AI (enge KI). Ich erkläre im weiteren was Narrow AI (sehr spezifische Form der sogenannten künstlichen Intelligenz) ist. Ich lege dann dar, dass der Begriff der Intelligenz, wie er vom Erfinder Alfred Binet entwickelt wurde, nichts mit dem künstlichen Intelligenzbegriff zu tun hat, wie er ursprünglich und aktuell von Vertretern der starken KI Forschung wie auch der schwachen KI-Forschung in der Informatik verstanden wird, unabhängig davon, dass der Begriff der Intelligenz kein wissenschaftlich geklärter oder zur Zeit wissenschaftlich haltbarer Begriff ist.

Es gibt zur Zeit nur Narrow AI, der Rest ist Regelungstechnik oder Semantik

Es gibt zur Zeit keine universelle künstliche Intelligenz, weil es nur für eng umgrenzte Anwendungen mathematische Lösungen und wirtschaftlich vertretbare Rechnerkapazitäten gibt. Dies hat im wesentlichen folgende Gründe:

  • Viele Fragen des Lebens oder Problemlösungen sind so komplex, dass sie sich mit der KI nur schwer oder noch nicht lösen lassen. KI ist im Kern angewandte Mathematik der Informatik. Mathematik wird als eine Wissenschaft beschrieben, die durch logische Definitionen selbstgeschaffene abstrakte Strukturen mittels der Logik auf ihre Eigenschaften und Muster untersucht. Damit wäre zur Zeit nur das künstliche Intelligenz, wo mit mathematischen Regeln etc. große Datenmengen in geeigneter Datenstrukturen so analysiert werden, dass daraus Erkenntnisse, Informationen etc. entstehen, die man ohne KI nicht bekommen hätte.
    An diesem Punkt muss man genau hinschauen, was das für Erkenntnisse sind und für was sie sich eignen. Hier zu werde ich einen weiteren Blog schreiben. Nur soviel an dieser Stelle: Entweder sind die Ergebnisse nur begrenzt anwendbar oder gültig aufgrund ihrer mathematischen Struktur oder sie sind aufgrund vom Computer erstellten Algorithmen nicht mehr oder bedingt nachvollziehbar, dann bedeutet dies, dass man die Erkenntnisse nicht oder nur schwer einschätzen kann. Damit kann sich die KI der menschlichen Kontrolle entziehen.
  • Damit sind die Mengen, Strukturen und Güte der Daten entscheidend, ob es überhaupt zu dem o.g. Ergebnis kommt mit Hilfe der KI analysiert zu werden. Es sind aber selten die Daten in der Menge, Qualität und Güte vorhanden, um die Voraussetzung zu schaffen, dass Computer daraus Big Data Smart Data machen können. Dieser Punkt wird in Zukunft einfacher werden, weil immer mehr Daten zur Verfügung stehen (siehe Handelsblattgrafik).
  • Die Fähigkeit aus Big Data Smart Data zu machen und die Analyse fortwährend selbstständig durch Computer zu optimeren, können die Computer (Rechner) nicht alleine. Sie müssen anhand verschiedener Programmierverfahren erst dazu in die Lage versetzt werden. Es hängt also von der jeweiligen Kompetenz der Menschen ab, die häufig erst KI-Lösungen entwickeln auf deren Basis dann Computer grosse Datenmengen analysieren. Dabei gilt:  Es gibt kein „One KI fits them all“, sondern häufig können nur für sehr eingrenzbare Fragestellungen KI Lösungen erarbeitet werden. Gibt es in der Praxis Datenstrukturen von den im Testloss optimierten KI Lösungen abweichen, fängt man in der Regel wieder von vorne an dafür KI Lösungen zu optimieren.
  • Neben den geeigneten Menschen benötigt man für eine Hochleistungs_KI wie dem Brettspiel Alpha Go sehr teuere Systemarchitekturen, die große Datenmengen schnell verarbeiten können. Die weltweit bekannten Beispiele von ALPHA Go, der den weltbesten GO-Spieler Lee Sedol schlug, sind also Prototypings und damit  Ausnahmen. Warum? Weil für diese KI enorme Rechnenleistungen notwendig sind, die jenseits jeder Wirtschaftlichkeit liegen. Google selber gibt an, dass sie für diese Aufgabe mehrere Maschinen mit 40 Verarbeitungsdurchläufen, 1202 Rechnereinheiten in Form von CPUs und 176 Hochleistungsgrafikkarten benötigten. Um überhaupt diese gewaltigen Rechnenleistungen zu erreichen, werden in der Regel heterogene Systemarchitekturen mit unterschiedlichen Rechenressourcen eingesetzt, einschließlich CPUs mit hoher Bandbreite, spezialisierte KI-Beschleuniger und Hochleistungsnetzwerke, die in jedem Knoten eingesetzt werden, um signifikante Verbesserungen bei der Rechenleistung zu erzielen. Das können nur wenige Unternehmen wie IBM, Google, Facebook und Amazon. Der IBM Summit Supercomputer ist ein gutes Beispiel für heterogenes Computing für KI-Workloads.

 

Der IBM Summit Supercomputer ist ein gutes Beispiel für heterogenes Computing für KI-Workloads.

Selbst dann, wenn man Alpha Go als Beispiel für Hochleistungs-KI nimmt,  bleibt es bei der Anwendung im Bereich der Brettspiele. Die Hersteller von Computerspielen sind häufig die Vorreiter von KI-Lösungen, was dran liegt, dass die sehr leistungsfähige Grafikprozesseoren für die Spielewelten benötigen, die sich auf für KI-Anwendungen sehr gut nutzen lassen.

Der Versuch die Narrow AI zur allgemeinen KI zu erklären, wird hier häufig mit der Spieltheorie begründet. Die Spieltheorie ist eine mathematische Theorie, in der Entscheidungssituationen modelliert werden, in denen mehrere Beteiligte miteinander interagieren. Sie versucht dabei unter anderem, das rationale Entscheidungsverhalten in sozialen Konfliktsituationen davon abzuleiten. Die Spieltheorie ist originär ein Teilgebiet der Mathematik.

Aufgrund der unrealistischen Modellannahmen wird die empirische Erklärungskraft der Spieltheorie in der Regel in Abrede gestellt. Kein Mensch wird jemals so rational sein, wie es den Spielern durch die spieltheoretischen Lösungskonzepte unterstellt wird. In dem berühmten Ultimatum Spiel hat die moderne Neurowissenschaft herausgefunden, dass sich Menschen nach sozialen Regeln verhalten, auch wenn es ihnen zum Nachteil gereicht. Paradoxerweise ist das Ultimatum-Spiel von der Spieltheorie entwickelt worden und wird nun durch Ergebnisse der Neurowissenschaft zum Bummerang, der Grundanahmen der Spieltheorie, dass wir alle rationale Wesen widerlegt.

Beim Ultimatum Spiel erhält ein Spieler A vom Spielleiter einen Betrag, den er mit dem  Spieler B teilen soll. Nimmt der andere Spieler den Betrag an, gilt die Teilung und der Betrag wird auf beide Spieler aufgeteilt. Lehnt Spieler B das Angebot ab, geht der gesamte Betrag an den Spielleiter zurück.

Laut Spieltheorie vom rational handelnden Menschen müsste Spieler B jedes Angebot, was ihm der Spieler B unterbreitet, annehmen. Denn 1 Euro wäre immer noch besser als nichts. Tatsächlich lehnen Menschen, die sich in der Rolle des Spielers B befinden, zu 80% das Angebot als unfair ab, wenn der Teilungsbetrag geringer als 40% ist laut einer wissenschaftlichen Studie von M. A. Nowak, K. M. Page, K. Sigmund.

Noch interessanter sind die Aufzeichnungen der Gehirnaktivitäten von Spieler B, wenn er das Angebot ablehnt. Man konnte eine eine deutliche Aktivität im Belohnungssystem beobachten. Das schildert Professor Gerhard Roth in seinem Buch: Persönlichkeit, Entscheiden und Verhalten auf Seite 154 ff.

Menschen sind also hoch motiviert, wenn sie altruisisch Bestrafen (sich rächen). Das Gefühl der Rache überwiegt den materiellen Verlust. Der Mensch ist kein rationales Wesen, sondern ein emotionales und soziales Wesen. Das habe ich in einem anderen Blogbeitrag schon mal dargelegt. Die Spieltheorie eignet sich also nicht als Gültigkeitsanspruch, Anwendungen der KI im Spielbereich generell auf menschliche Entscheidungssituationen zu übertragen.

Der Alltag der KI Anwendungen ist wesentlich bescheidener und bezieht sich auf sehr überschaubare Lösungen und ist damit im Kern Narrow AI (eng begrenzte KI auf ein spezielles Anwendungsfeld).  Selbst dann können KI Lösungen scheitern oder suboptimale Lösungen produzieren:

  • Die Fragestellung oder Problemlösung lässt sich nicht mit einer KI lösen
  • Es liegen nicht genügende Menge an validen Daten vor.
  • Es fehlen qualfizierte Menschen, die eine KI Lösungen entwickeln.

Die Hard- und Softwarelösungen sind heute das kleinste Problem in der Kette und nur eine Frage des Geldes.

Was ist narrow AI oder enge KI?

Eine Narrow AI oder enge KI ist eine spezifische Form der künstlichen Intelligenz, bei der eine Technologie den Menschen in einer sehr eng definierten Aufgabe übertrifft. Im Gegensatz zur allgemeinen künstlichen Intelligenz konzentriert sich die enge künstliche Intelligenz auf eine einzige Teilmenge kognitiver Fähigkeiten und Fortschritte in diesem Spektrum.

Der Begriff der künstlichen Intelligenz der Informatik (eine weltfremde Vorstellungen über den Menschen)

Der Begriff der künstlichen Intelligenz in der Informatik geht auf den Informatikprofessor John McCarthy zurück, der 1955 einen spannenden Begriff gesucht hat, um Forschungsgelder für ein Forsachungsprojekt zu erlangen (https://web.archive.org/web/20080930164306/http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html).

Als eigentlicher Startpunkt des Begriffs gilt die Dartmouth Konferenz, die 1956 stattfand. Die theoretischen Grundlagen des Begriffs Künstliche Intelligenz oder Artificial Intelligence sind aus meiner Sicht weltfremd. So gehen amerikanische KI Forscher wie Allen Newell und Herbert A. Simon von der Canergie Mellon Universität in Pitsburg davon aus, das menschliches Denken eine Informationsverarbeitung und Manipulation von Symbolen ist, zu der es kein Gehirn braucht (Physikalische Symbol System Hypothese). Eine Auffassung, die insbesondere von Vertretern (Marvin Minsky, Hans Moravec) der sog. starken KI-Forschung vertreten wird. Die starke KI-Forschung geht davon aus, dass die menschliche Intelligenz eines Tages komplett von Maschinen übernommen werden kann.

Die Vertreter der schwachen KI-Forschung vertreten eher die Hypothese, dass nur einzelne, sehr umgrenzte Aspekte der menschlichen Intelligenz, wie die mathematische Intelligenz, von Maschinen besser übernommen werden können. Hier ist auch die sogenannte Narrow AI oder enge KI (siehe oben) anzusiedeln.

Große Fortschritte lassen sich zur Zeit in drei Bereichen erkennen:

  • Bild-, Schrift- und Spracherkennung.

Intellgenzbegriff von Alfred Binet

Alfred Binet gilt als Erfinder des menschlichen Intelligenzbegriffs und den damit verbundenen Intelligenz-Quotienten. Alfred Binet kritisierte als Psychologe die Diagnostik an geistig Behinderten in den französischen Psychatrien Ende des 19. Jahrhunderts. Als Direktor des ersten psychologischen Forschungslaboratoriums in Frankreich entwickelte er erste Methoden zur Messung der Intelligenz. Er bekam von der Französichen Regierung den Auftrag, die Schulfähigkeit von Kindern zu messen. Er orientiert sich dabei an der damals angenommen Charakteristik des Schullernens.

Binet entwickelte mit dem Arzt Théodore Simon (1873–1961) einen Test, um die geistigen Fähigkeiten eines Kindes zu messen. Der Test bestand aus Aufgaben, mit denen die allgemeine Intelligenz festgestellt werden sollte und die nach Altersgruppen gestaffelt waren. Aus der Anzahl der richtig gelösten Aufgaben errechnete sich eine Punktzahl; diese ergab das „Intelligenzalter“ des Kindes. Dieser Test wurde Binet-Simon-Test genannt und 1905 zum ersten Mal angewendet und stellt bis heute die Grundlage der Festlegung des menschlichen Intelligenzquotienten (IQ) dar (Stanford-Binet-Test).

Der IQ errechnet sich aus der Anzahl der richtig gelösten Aufgaben, die einem sogenannten geistigen Alter zugeschrieben werden. Die Anzahl der richtigen Aufgaben werden durch das tatsächliche Alter des Kindes geteilt und mit 100 multipliziert. Wenn also ein zehnjähriges Kind z.B. 10 Aufgaben seines Alters richtig löst, dann hat es einen Intelligenzquotienten von 100. (10 geteilt durch 10 = 1 * 100 = 100). Löst ein zehnjähriges Kind dagegen z.B. zehn Aufgaben eines Kindes, deren Aufgaben dem Alter mit 12 zugeordnet wird, dann bekommt das Kind einen IQ von 120. (12 geteilt durch 10 = 1,2 * 100 = 120).

Der hier angenommene Intelligenzbegriff ist ein Vergleichsbegriff und bezieht sich auf eine kulturhistorisch eng gefasste Intelligenz die angeblich durch schulisches Lernen vermittelt oder gefördert wird. Eine Allgemeingültigkeit menschlicher Intelligenz kann hier nicht angenommen werden. Hier sei noch mal grundsätzlich darauf hingewiesen, dass eine Testkonstruktion die Gültigkeit eines Grundbegriffs wie Intelligenz nicht beweisen kann (Münchhausen Phänomen: Man kann sich nicht selbst an den eigenen Haaren aus dem Sumpf ziehen).

Intelligenzbegriff ist wissenschaftlich nicht geklärt. Ungeklärtheit in allen dafür relevanten Wissenschaftsdisziplinen

Seit 1905 hat sich in den für die menschliche Intelligenz relevanten Forschungsgebieten der Psychologie, Medizin und Neurowissenschaft viel getan. Je mehr Erkenntnisse diese drei Disziplinen über den Menschen gewannen, umso umstrittener wurde der Intelligenzbegriff. Dies hier im einzelen auszuführen, würde den Rahmen des Blogs bei weitem sprengen. Nur soweit:

Bis heute gibt es keine geklärte wissenschaftliche Grundlage des Intelligenzbegriffs. In der Psychologie gibt es so viele  unterschiedliche Intelligenzbegriffe wie es Intelligenztests gibt. Ein Intelligenztest misst eben nur das, was der jeweilige Forscher unter Intelligenz versteht. Das hat mit Wissenschaft nichts zu tun. Wenn das Wissenschaft sein soll, dann kann jeder sich Wissenschaftler nennen, der einen Gedanken oder eine Idee hat.

Die moderne Neurowissenschaft konnte bis heute keinen Bereich im Gehirn erkennen, wo die menschliche Intelligenz sitzt. Es gibt bis heute nur sehr allgemeine Befunde, wie etwa:

  • Intelligentere Gehirne (gemessen am IQ), verbrauchen weniger Energie als weniger intelligentere Gehirne.

Einsteins Gehirn zeigt z.B. keinerlei Unterschiede auf der neuronalen Ebene zu normal intelligenten Menschen. Allerdings zeigt es Auffälligkeiten in den Versorgungsbereich des Gehirns, den Astrozyten und Ganglionzellen. Was dieses Versorgungssystem des Gehirns mit seiner Intelligenz zu tun hat, ist zur Zeit nicht geklärt.

Fazit: Bei den Intelligenzbegriffen werden noch nicht mal Äpfel mit Birnen verglichen

Computer (Rechner) können grosse Datenmengen nach mathematischen Regeln (Algorithmen) systematischer, schneller und effizienter verarbeiten als das menschliche Gehirn. Das menschliche Gehirn ist wie jedes biologische System über Millionen von Jahren optimiert worden. Es ist aus biologischer Sicht schlichtweg dysfunktional grosse Datenmengen detailgetreu zu verarbeiten. Das braucht viel zu viel Energie und wir würden sehr schnell viel Unsinn im Kopf haben, den wir nicht brauchen.

Daher wird nur das im menschliche Gehirn gespeichert, was auch wirklich für seinen Besitzer (w/m) relevant ist. Die Erinnerungen sind aus o.g. Gründen auch nicht detailgetreu. Es werden nur die wichtigsten Bestandteile erinnert (Mustererkennung), die dann wieder durch hochkomplexe Vorgänge von Assoziationen aktualisiert werden, falls es notwendig ist.

Kurzum: Unser Gehirn hat ein völlig anderes Funktionsprinzip als ein Computer. Ich habe das schon in einem anderen Blogartikel verdeutlicht. Das menschliche Gehirn mit einem Computer zu vergleichen ist nicht nur unwissenschaftlich, sondern bei genauerer Betrachtung wenig sinnvoll.

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Google Foto

Du kommentierst mit Deinem Google-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s