Die Mechanisierung des Geistes - Die Beseelung der Maschine. Eine kurze Abhandlung über Künstliche Intelligenz















Unsere Gesellschaft hat ein demographisches Problem, die Zahl der alten Menschen wächst rapide, demgegenüber die der jungen sogar rückläufig ist. Dies hat unter anderem einen explosionsartigen Anstieg der Kosten für Sozial-haushalte zur Folge. Vermehrt wird dem entgegnet, dass Hightech mit freundlichen und belastbaren Robotern eine preiswerte Zukunftsperspektive darstellen, und somit Abhilfe schaffen könnte. Nicht zu vergessen die Tätigkeiten, bei welchen Menschen trotz Hochtechnisier- ung immer noch mit äußerst unangenehmen Arbeiten betreut sind. Ist Künstliche Intelligenz (im folgenden KI abgekürzt) aber auch in der Lage, Modelle des Menschlichen zu liefern oder schaffen KI und Robotik am Ende bestenfalls intelligente, aber gefühllose Zombies?


Als Ende der 40er Jahre des vergangenen Jahrhunderts in den USA der erste Großrechner in Betrieb genommen wurde, war man noch weit davon entfernt, dessen Rechenfähigkeiten als klug zu bezeichnen oder gar von einer „Künstlichen Intelligenz“ zu sprechen. Heutzutage aber leistet mittlerweile schon jeder Schultaschenrechner weit mehr, als jener damalige Computer.


Ohne dass wir uns dessen bewusst sind, wird mittlerweile sogar ein beträchtlicher Teil unseres Lebens von KI (an)geleitet. Die dafür notwendigen Computerprogramme agieren jedoch häufig im Verborgenen. Nämlich dort, wo sie uns nicht direkt bewusst werden, sondern wir vielmehr ihre Leistungen mittlerweile als etwas unserem Leben alltäglich zugehöriges anerkennen. Wenn wir beispielsweise mit einem Flugzeug fliegen, uns Wetterprognosen vorhersagen lassen, Spracherkennungssysteme zum Diktieren eines Textes nutzen oder Aktienkurse prognostiziert werden, stets sind hochkomplexe Computersysteme involviert. Ob wir diese nun schon als intelligent bezeichnen können oder nicht, kann vorerst dahingestellt sein. Bedacht werden sollte aber, würden ebensolche Leistungen von einem Menschen vollzogen, würde wohl niemand zögern ihn als intelligent zu bezeichnen. (Mainzer 2006: 79)


Versuchen wir uns darum zunächst einmal in wenigen Worten dem Begriff der Intelligenz zu zuwenden, bevor wir dann weiter dazu übergehen, nach deren künstlicher Erzeugung zu fragen. Mit einem Intelligenztest, wird gemeinhin versucht interindividuelle Unterschiede zu messen, folglich inwiefern sich eine Person im Bezug auf eine bestimmte Dimension von anderen Personen unterscheidet oder ihnen gleicht. Ob etwas oder jemand als intelligent bezeichnet wird, hängt dabei in erster Linie von der Art und Weise der Aufgabenstellung und Messung des Testes ab. Im Standarteinführungswerk der Psychologie von Zimbardo/Gerrig ist folgende Definition zu lesen: „Intelligenz ist eine sehr allgemeine Fähigkeit, die unter anderem die Fähigkeiten zum schlussfolgernden Denken, zum Planen, zum Problemlösen, zum abstrakten Denken, zum verstehen komplexer Ideen, zum raschen Auffassen und zum Lernen aus Erfahrung einschließt.“ (Gottfredson 1997: S.13) In Anbetracht der Weitläufigkeit, dieser nur exemplarisch genanten Definition von Intelligenz, sollte deutlich gemacht werden, warum deren Feststellung immer zu ausschweifenden Kontroversen geführt hat.


Lange Zeit hielt man darum an der vom britischen Mathematiker Alan Turing festgelegten Messung von künstlicher Intelligenz fest. Dieser beschrieb in seinem 1950 erschienen Aufsatz „Computing Machinery and Intelligenz“ die Idee, etwas erst ernsthaft als KI anzuerkennen, wenn es folgenden Test besteht. In einem abgesonderten Raum sitzt ein Mensch vor einem Bildschirm und kommuniziert per Tastatur mit einem Computer oder einem Menschen. Dabei können willkürlich Fragen gestellt werden, solange sie der Logik einer realen Kommunikation entsprechen. Kann die kommunizierende Person anhand der Verständigung nicht mehr unterscheiden, ob es sich gerade um einen Computer oder einen echten Menschen handelt, hat der Computer den Test bestanden. Turing prophezeite, dass dies spätestens im Jahre 2000 geschafft wäre. Bis heute aber hat keine Maschine den Turing Test wirklich bestanden. Zwar gab es hier und da vielversprechende Ansätze, wie Joseph Weizenbaums Programm „ELIZA“, oft entpuppten diese sich jedoch dann schnell als Sackgasse. ELIZA war lediglich auf eine recht simple Art und Weise in der Lage einen Psychiater, anhand bestimmter Schlagwörter und darauf folgender Fragephrasen, zu simulieren. (Weizenbaum 1978: 15-18) Um so erstaunlicher aber, war dann die Wirkung, welche dieses Programm auf die Probanden und Rezipienten hatte. Nachdem von einem amerikanischen Psychiater ernsthaft in Erwägung gezogen wurde, ELIZA als Vorstufe eines echten Psychiatergesprächs zu benutzen, um somit Kosten und Nutzen zu optimieren, war Joseph Weizenbaum quasi bekehrt. Von nun an schlug er sich auf die Seite der Technikskeptiker und wurde zu einem der bekanntesten Kritiker der KI-Forschung. (ebd. 1978: 19-21)


Menschliche Intelligenz ist aber nur eines von vielen Beispielen, intelligent agierender Systeme. Denn durch die Evolution haben sich unter verschiedenen Lebensbedingungen auf der Erde, unterschiedliche Formen intelligenter Organismen entwickelt, welche sich unter anderen Umständen auch ganz anders hätten herausbilden können. Grundlage hierfür sind biochemische Nervensysteme wachsender Komplexität, welche ein selbstständiges Anpassen an sich ändernde Umweltbedingungen erlauben. Aus technologischer Sicht hingegen wurden, speziell in den letzten 20 Jahren, Computer mit rasant wachsender Rechenleitung entwickelt. Auf technisch unterschiedlichen Grundlagen vollbringen sie – wie zuvor angeführt – Leistungen, welche wir bei Mensch und Tier recht sicher als intelligent bezeichnen. Würden wir uns also bei der Definition intelligenter Systeme lediglich auf Primaten begrenzen so würden wir, „wie zur Zeit des Aristoteles die Erde in den Mittelpunkt stellen und die Gesetzte der Physik darauf beschränken.“ (Mainzer 2006: 79) Neuzeitliche Wissenschaft hingegen, ist darauf bedacht Gesetzte zu finden, welche unter den entsprechenden Bedingungen überall im Universum gelten. Die KI-Forschung versucht daher, allgemeine Gesetzmäßigkeiten für intelligente Systeme unterschiedlichster Art zu erfassen. In ihrer Anfangszeit war die KI-Forschung noch darauf bedacht, intelligente Computerleistungen ausschließlich am Menschen zu messen. Das dies wenig Sinn macht, wird schnell klar, wenn man bedenkt, dass es ebenso unsinnig wäre die Bewegung des Fliegens lediglich anhand von Flügelschlägen zu bestimmen. Wäre dem so, hätten wir sicher nie den Propeller oder die Turbine erfinden können. Der wirklich technische Erfolg setzt eben erst dann ein und gilt als innovativ, wenn generalisierbare Gesetzmäßigkeiten, wie die der Mechanik, Elektronik oder Akustik, erkannt sind und damit einhergehend neue Problemlösungsstrategien imaginiert werden. Das der Menschen sich täuscht, fehlinterpretiert oder ungenaue Antworten gibt, ist dabei weniger ein Mangel als vielmehr das Besondere an ihm, da es ihm hilft, sich auch in unklaren Situationen zurechtzufinden. Genau solche unklaren Situationen sind es aber, die die KI-Forscher bisher vor schier unüberwindliche Probleme stellt. Zwar sollte die variable Anzahl der zu analysierenden Situationen, von einem System rein hypothetisch gesehen, durch seine informationsaufnehmenden Messinstrumente (beim Menschen die Rezeptoren) und somit deren Variationen begrenzt sein, doch ist dem aus technischer Sicht nicht so einfach beizukommen. Das was wir als Intuition bezeichnen und oft nicht rational beschreiben können, lässt sich eben aus diesem Grund auch nur schwierig programmieren.


Statt nun allumfassend intelligente Systeme zu entwickeln, beschränkten sich die KI Forscher deshalb vorerst darauf, Computer auf ein sehr spezifisch eingegrenztes Teilgebiet zu spezialisieren. Diese werden Expertensysteme (intelligente Systeme) genannt. Solche Expertensysteme sind KI-Programme, welche Wissen über ein ganz bestimmtes Gebiet sammeln und speichern, um aus diesem automatische Schlussfolgerungen zu ziehen und konkrete Lösungen oder Diagnosen, zu wiederum rein spezifischen Fragestellungen bereitzustellen. (vgl. Mainzer 2006: 79) Erste kommerzielle Erfolge ließen sich hiermit in den 1980er Jahren, bei der Berechnung von Wetterprognosen erlangen. Normalerweise kommt die Abarbeitung solcher Systeme, aber nicht über ein gewöhnliches „Wenn-Dann“ Regelwerk hinaus. Somit können sie zwar sehr hilfreiche Unterstützung in verschiedensten Alltags- (bspw. Routenplaner) und Berufssituationen (bspw. medizinische Diagnosen) liefern, gelangen aber auch schnell an ihre Grenzen, sobald sich kleinste graduelle Abweichungen beim Input ergeben. Gerade in späteren Fehleranalysen zeigt sich, dass das System eben nur so gut ist, wie die Eingaben, mit dem man es speist. (vgl. Dietz 2003: 57)


Das Beste wäre also, wenn sich das System selbst „speisen“ würde und sich zudem anhand falscher Ergebnisse auch eigenständig weiterentwickelt. Eine sich selbst reproduzierende Maschine wurde lange Zeit als unmöglich aufgefasst, bis Mitte der 50er Jahre vom österreichischen Mathematiker John Neumann das Gegenteil bewiesen wurde. Er stellte heraus, dass nicht die Art der materiellen Bausteine für die Selbstreproduktion grundlegend sind, sondern vielmehr ihre Organisationsstruktur, welche eine vollständige Beschreibung von sich selbst enthalten muss. (Mainzer 2006: 82) So ist auch der genetische Code, durch welchen der Bauplan des Menschen determiniert ist, nichts weiter als ein sich selbst reproduzierender, organischer Schlüssel, welcher durch Mutationen und Umgebungsharmonisierung eine Anpassung und Weiterentwicklung an sich verändernde Umweltbedingungen bewirkt. Selbstverständlich soll damit aber nicht die durch den Menschen geschaffene und auf ihn wieder zurückwirkende Kultur unterschlagen werden. Zwar ist diese bildhaft gesehen, auch in einem auf sich selbst bezogenen System, wie jenem der biochemischen DNS eingebettet, besteht zudem jedoch noch in mannigfaltiger nichtmaterialistischer Form. Bemerkenswert an genetischen Algorithmen ist, dass sie aufgrund von Zufallsmechanismen Neues schaffen, selektieren und optimieren. Hiermit wird eine Schranke aufgehoben, welche bisher als Grenze für programmgesteuerte Computer aufgefasst wurde. In einer präbiotischen Evolutionsphase bildeten sich DNA Codes, welche durch einen „Trail-and-Error Prozess“ (biologisch: Optimierungsverfahren) Algorithmen entwickelten, welche wiederum selbst in der Lage sind einen eigenen, neuen und selbstreproduzierenden Algorithmus zu erzeugen. Derartige evolutionäre Algorithmen werden bereits von Programmieren geschrieben, um zum Beispiel die Bewegung eines Roboterarms zu optimieren.


Der Turing Tests hat dadurch mittlerweile beträchtlich an Bedeutung verloren, da es nicht mehr als Hauptaufgabe der KI angesehen wird menschliche Kommunikation zu simulieren, sondern für den Menschen nützliche Werkzeuge zu kreieren. (vgl. Whitby 1996: 58) Im Zuge dessen, hat sich aber eine Abwandlung des Turing Tests als äußerst nützlich erwiesen. Bei sogenannten CAPTCHAS (Completely Automatic Public Turing Test to Tell Computers and Humans Apart) liegt der Sinn darin, dass ein Computer einen Menschen von einem anderen Computer unterscheiden soll. Luis von Ahn entwickelte diese Idee, als in den Anfangszeiten kostenloser Mailaccounts, mehr und mehr Spamprogramme aufkamen, welche sich vollautomatisch einen Mailaccount erstellten, über den dann wiederum Massen an Werbung versendet wurden. (Ruppel 2010: 66) CAPTCHAS wandeln Schriftzeichen in Bilder um, um sie dann zu verzerren. Für einen Computer ist es dabei äußerst schwierig diese wieder zu entschlüsseln, nicht so jedoch für einen Menschen. Gewiefte Netzbetrüger haben sich darum einen Trick einfallen lassen. Sie schalten CAPTCHAS, welche ihre eigenen Programme bisher blockierten, vor eine kostenlose Internetseite – zumeist Pornografie oder Games. Damit sich der User Zutritt verschafft kann, muss er erst dieses CAPTCHA lösen, welches aber im Grunde von einer anderen Internetseite stammt und dem schädlichen Programm dann dort den Zugang gewährt. Außer dieser Gatekeeperfunktion, haben CAPTCHAS aber mittlerweile auch einen weiteren sehr nützlichen Wert. Oft ist es für Softwareprogramme mit erheblichen Schwierigkeiten verbunden, ältere, oder Schriftstücke in schlechtem Zustand zu digitalisieren. CAPTCHAS welche aus solchen fotografischen Stücken bestehen, die bisher gar nicht oder nicht korrekt eingescannt werden konnten, bezeichnet man als „reCAPTCHA“. Diese Zusammenarbeit zwischen Mensch und Computer kann unter dem Oberbegriff „Human Computation“ gefasst werden.


Der Sinn ist es dabei, die Vorzüge der KI mit jenen der menschlichen Intelligenz zu verbinden. Denn was uns als Menschen oft wie selbst von der Hand geht, beispielsweise Bilder zu kategorisieren, stellt Computer zumeist vor unlösbare Probleme. Und was Computern einfach fällt, beispielsweise das Lösen mathematischer Aufgaben, ist für den Menschen oft nicht ohne erheblichem Aufwand zu leisten. Durch die Kombination von menschlicher und künstlicher Intelligenz aber, könnten zukünftig Probleme höherer Dimension bewältigt werden. Exemplarisch für diese Symbiose soll nun verkürzt das sogenannte „Gaming with a Purpose“ dargestellt werden. Hierzu zählt auch das sogenannte „ESP-Game“. Dieses ist ein Onlinespiel, durch welches Suchmaschinenanbieter ihre Bildersuche verfeinern wollen. Es wird kostenlos im Internet angeboten und jedem, der sich freiwillig bereit erklärt daran teilzunehmen, suggeriert, die Welt dadurch ein Stück besser zu machen. („You´re helping the world become a better place.“ http://www.gwap.com/gwap/about/) Die Regeln sind leicht: Es spielen immer zwei Spieler online und in Echtzeit gegeneinander. Jeder Spieler sieht auf seinem Bildschirm ein Bild (Mod.: Ton u. Video), welches auch zugleich dem anderen Mitspieler angezeigt wird. Nun sollen beide dieses Bild mit mehreren Schlagworten versehen. Punkte gibt es immer dann, wenn je das gleiche Schlagwort gewählt wurde. Taucht dasselbe Schlagwort dann auch in anderen Partien vermehrt auf, kommt es künftig auf eine Tabuliste (gilt als gesichert) und es müssen neue Beschreibungen gefunden werden. Somit wird die Kategorisierung systematisch verfeinert.


Fast am Ende angekommen, möchte ich noch kurz die aus meiner Sicht aktuell aussichtsreichsten Forschungsrichtungen der KI anschneiden. Dies ist erstens die Verschmelzung von Mensch und Maschine in der Art eines Cyborg. Persönlich scheint mir das einleuchtend, wenn ich an die schon von je her stete Weiterentwicklung der Behandlungsmethoden menschlicher Krankheiten, sowie die kontinuierlich angestrebte körperliche Optimierung des Menschen denke. Schier uferlos wird hier versucht dem menschlichen Makel der natürlicher Verletzlichkeit ein Schnippchen zu schlagen, wodurch sich das Bild des Menschen gezwungener Maßen radikal verändern wird. Dies nicht zuletzt aufgrund der Geschwindigkeit, mit welcher Technologie derzeitig vorangetrieben wird, ohne dies sinnhaft verantworten zu können. Was einst mit Brille und Gehhilfe so harmlos daherkam, wird sich in baldiger Zukunft, bezüglich Transplantaionschirurgie und Implantatologie, in Dimensionen bewegen, welche wir heute nicht zu ahnen vermögen. (Ruppel 2010: 37 – 39) Weiterführend hierzu empfehle ich Rodney Brooks „Maschinenmenschen“ oder einfach mal „Cyborg“ oder „Bioelektronik“ zu googeln.

Die zweite Dimension, welche ich im Sinne der KI-Forschung für zukunftsträchtig halte, ist jene der „intelligenten Agenten“, wie sie von Marvin Minsky beschrieben wird. Agenten sind für ihn alle Dinge die Wahrnehmen und Handeln können. Dies können sowohl Menschen, als auch Roboter oder einfach Software sein. Hierbei vertritt Minsky den Ansatz, den Geist des Menschen als Maschine erklären zu können, welcher erst qua Gesellschaft zu Intelligenz fähig ist. Minskys Agenten agieren ähnlich, wie die aus der Biologie bekannte „Schwarmintelligenz“, bei welcher das Einzelne recht machtlos ist, sich zusammen jedoch eine konzeptionell geschlossene und intelligente Einheit bildet. Die heutzutage alles und jeden vernetzende Verbindung des Internets, lässt diesen Gedanken darum als vielversprechend erscheinen.


Schlussendlich kann man bei der Definition dessen, was man nun als Intelligenz bezeichnen soll oder auch nicht, noch folgende zwei simple Unterscheidung mit einbeziehen. Einerseits kann man intelligent als eine Eigenschaft bezeichnen, dem gegenüber die Intelligenz als eine Fähigkeit steht. Adverbiale Intelligenz kann also Handlungen und Aktionen im einzelnen zu- oder auch abgesprochen werden, wohingegen die nominale Intelligenz bei einem Subjekt vorhanden ist oder eben nicht. Daraus folgt, dass man nicht allem, was einmal intelligente Handlungen gezeigt hat, auch gleichzeitig die Intelligenz schlechthin anerkennt. (Cruse, Dean, Ritter 1999: 95) Auch ist Intelligenz immer relativ im Kontext dessen zu sehen, was allgemein hin schon als gewöhnlich und normiert in der Abfolge prozessualer Bearbeitung gesehen wird. Wie gezeigt wurde, ist erst der Umgang mit dem schwierig, was nicht bekannt oder eindeutig zuordenbar ist. Für gewöhnlich sind die Aufgabenfelder von Robotern oder Maschinen aber immer in vorgeprägten Bahnen festgestellt, womit ihnen diesbezüglich keine nominale, sondern lediglich adverbiale Intelligenz zugesprochen werden kann. Alles in allem bleibt es aber eine Frage der Definition, von generell intelligenten Maschinen sprechen zu können oder nicht. Solange es keine eindeutige Definition von Intelligenz gibt, welche sich nicht in erster Linie ausschließlich am Menschen orientiert, muss eine Antwort über die wirkliche Existenz von KI wohl noch weiter vertagt werden.


04.03.2011 richard w.


Quellennachweis


  • Cruse, Dean, Ritter: Was ist Intelligenz? In: Wellmann (Hrsg.): Intelligenz zwischen Mensch und Maschine. Von der Hirnforschung zur künstlichen Intelligenz. Begleitbuch zum Neuen Funkkolleg „Die Zukunft des Denkens“. Münster 1999. S. 92 – 106.

  • Dietz, Peter: Menschengleiche Maschinen. Wahn und Wirklichkeit der künstlichen Intelligenz. Berlin 2003.
  • Gottfredson, L. S.: Mainstream science on intelligence: An editorial with 52 signatories, history, and bibliography. Intelligence. 24, S. 13-23.
  • Mainzer, Klaus: In: Wolfgang Achtner u.a. (Hrsg.) Künstliche Intelligenz und Menschliche Person. N.G. Elwert Verlag Marburg. 2006.
  • Ruppel, Sophia Melina: Was war Künstliche Intelligenz. Magisterarbeit. Leuphana Universität Lüneburg. 2010.
  • Weizenbaum, Joseph: Die Macht der Computer und die Ohnmacht der Vernunft. Frankfurt a.M. 1978.
  • Whitby, Blay: The Turing Test. AI´s biggest Blind Alley?. In: Millican, Peter J. R. and Andy Clark (Hrsg.): Machines and thought. Oxford 1996, S. 53 – 62.
  • Zimbardo, Gerrig: Psychologie. 16 Auflage. Pearson Studium 2004. 10.2 Intelligenzdiagnostik S. 405 – 428.
  • ESP Game: httw://www.gwap.com
  • Stand: 02.03.2011
  • Bildquelle:http://diepresse.com/images/uploads/8/f/1/461041/kuenstliche_intelligenz20090314184940.jpg Stand: 08.03.2011

Keine Kommentare:

Kommentar veröffentlichen

Hinweis: Nur ein Mitglied dieses Blogs kann Kommentare posten.