Umstritten: KI besteht Turing-Test

Bild von Drosan
Drosan 2885 EXP - 15 Kenner,R6,A3,J7
Alter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertAlter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertBronze-Jäger: Hat Stufe 5 der Jäger-Klasse erreichtVielspieler: Hat 250 Spiele in seine Sammlung eingetragenLoyalist: Ist seit mindestens einem Jahr bei GG.de dabeiBronze-Reporter: Hat Stufe 6 der Reporter-Klasse erreichtStar: Hat 1000 Kudos für eigene News/Artikel erhaltenKommentierer: Hat 100 EXP mit Comments verdientVorbild: Hat mindestens 100 Kudos erhaltenTop-News-Schreiber: Hat mindestens 5 Top-News geschriebenSammler: Hat mindestens 50 Spiele in seiner SammlungProfiler: Hat sein Profil komplett ausgefüllt

11. Juni 2014 - 16:14 — vor 2 Jahren zuletzt aktualisiert

Die Entwicklung einer echten Künstlichen Intelligenz stellt die Informatik vor große Schwierigkeiten. Zu komplex sind die menschlichen Denkprozesse, um sie in Algorithmen abzubilden. Gemäß des Teile-und-Herrsche-Paradigmas (im englischen divide and conquer) aus der Informatik wird die Komplexität einer allumfassenden Künstlichen Intelligenz, wie sie beispielsweise in Videospielen wie System Shock oder Portal oft als Bösewicht dargestellt wird, auf eine kleinere Teilmenge heruntergebrochen. Bereits heute sind Künstliche Intelligenzen mit Sprach- beziehungsweise Schrifterkennungssystemen aus dem Alltag nicht mehr wegzudenken. Ein Singleplayermodus wäre ohne mal mehr und mal weniger clever agierenden Computergegner undenkbar.

Bereits einen Schritt weiter ist Eugene Goostman. Dabei handelt es sich um die Software eines ukrainischen Forscherteams, die einen 13-jährigen Jungen simuliert. Wie gut eine Künstliche Intelligenz tatsächlich ist, wird mit Hilfe eines Tests des britischen Mathematikers Alan Turing ermittelt. Der bereits 1954 verstorbene Turing gilt heute als einer der einflussreichsten Theoretiker der modernen Informatik. Bekanntheit erlangte er vor allem durch seine federführende Beteiligung an der Entschlüsselung der Enigma.

Bei dem nach ihm benannten Turing-Test kommuniziert ein Fragensteller über einen Chat abwechselnd mit einem Menschen und einem Programm. Die Aufgabe des Fragenstellers ist es, herauszufinden, bei welchem der Gesprächsteilnehmer es sich um die Maschine handelt. Dabei können beliebig komplexe Themengebiete besprochen werden. Verhindert wird lediglich der Sicht- und Hörkontakt zwischen den Teilnehmern, um so eine vorzeitige Identifikation zu vermeiden. In Blade Runner wird mit dem als Voigt-Kampff-Test bezeichneten Versuch eine abgewandelte Form des Turing-Tests angewendet. Dabei werden emotionale Reaktionen gemessen, um im Blade-Runner-Universum Replikanten von Menschen zu unterscheiden.

Eugene Goostman konnte nun zehn Mitglieder einer 30-köpfigen Jury davon überzeugen, ein Mensch zu sein. Jedes Mitglied konnte sich dabei fünf Minuten mit dem Programm unterhalten. Da mehr als 30 Prozent der Jury-Mitglieder erfolgreich getäuscht werden konnten, sehen die Veranstalter den Turing-Test als bestanden an. Das Ergebnis wird jedoch kritisch gesehen: Einige Fachleute sehen es als erforderlich an, dass mindestens 50 Prozent der Jury getäuscht werden muss, um den Turing-Test zu bestehen.

Bereits in der Vergangenheit gab es Durchbrüche bei den Turing-Tests: Eine modifizierte Version der Bots des Ego-Shooters Unreal Tournament gaukelte 2012 über der Hälfte der Tester vor, dass diese gegen andere Menschen spielen würden. Auch 2011 konnte der Chatbot Cleverbot über die Hälfte der Fragesteller auf einem indischen Technikfestival täuschen. Damals waren sich jedoch die Entwickler selbst unsicher, ob sie den Test bestanden haben. Dies lag unter anderem an den nicht idealen Testbedingungen auf der Veranstaltung.

Flo_the_G 14 Komm-Experte - 2098 - 11. Juni 2014 - 16:29 #

"Bereits heute sind Künstliche Intelligenzen mit Sprach- beziehungsweise Schrifterkennungssystemen aus dem Alltag nicht mehr wegzudenken."

Wirklich? Also ich hab noch nie irgendwelche KIs "im Alltag" gebraucht.

Drosan 15 Kenner - 2885 - 11. Juni 2014 - 16:36 #

Kommt auch immer darauf an wie weit man den Begriff der künstlichen Intelligenz herunterbrechen möchte. Suchmaschinen könnte man beispielsweise auch dazu zählen. Oder halt Texterkennung. Im kleinen auf dem PC wenn man ein gescanntes Dokument per OCR ausliest oder im großen wenn Firmen automatisiert Formulare verarbeiten. Und halt in fast jedem Videospiel als Wegfindung.

Deep Thought 15 Kenner - 3159 - 11. Juni 2014 - 17:08 #

Suchmaschinen, OCR und dergleichen haben (in aller Regel) nicht wirklich etwas mit KI zu tun. Jedenfalls dann nicht, wenn dabei jegliche Semantik, Systematik o.ä. bei den gescanten Inhalten auf der Strecke bleibt. Das bloße Abmalen von Schriftzeichen ohne Verständnis derselben durch Menschen würde ja auch keiner als intelligentes Verhalten bezeichnen :)

Drosan 15 Kenner - 2885 - 11. Juni 2014 - 17:35 #

Deswegen schreibe ich ja "Kommt auch immer darauf an wie weit man den Begriff der künstlichen Intelligenz herunterbrechen möchte". Suchmaschinen finde ich durchaus schon recht komplexe Systeme. Natürlich kann man, wie du auch schreibst, jegliche Komplexität rausnehmen und einfach nur nach einfachen Zeichenketten suchen. Ich glaube aber, dass dann unsere Suchergebnisse ein wenig anders aussehen würden.

Das bloße Erkennen von (Hand-)Schriftzeichen oder Dingen halte ich nicht für ganz so trivial wie jetzt dargestellt. Nicht umsonst gibt es bei komplexerer Erkennungssoftware eine "Anlernphase" bei der man festgelegte Sätze vorlesen oder schreiben muss.

Im entdefekt ist und bleibt es derzeit bei einer "Abschätzung" auf Basis von bereits analysierten "Erfahrungswerten". Eine "wirkliche" Intelligenz im Sinne von Skynet, R2D2/C-3PO oder Data gibt es nicht. Aber was wären denn aus deiner Sicht Beispiele für angewandte KI?

Deep Thought 15 Kenner - 3159 - 11. Juni 2014 - 18:38 #

Sobald tatsächlich eine Art höherer (pseudo-) kognitiver Leistung erbracht wird, bin ich ebenfalls Deiner Ansicht, dass man dann von KI sprechen kann. Wenn eine Aktion also nicht bloß Automatismus ist, sondern mit Zielstrebigkeit eine Problemlösung herbeiführen soll. Das setzt Dinge voraus wie bsw. gezieltes Suchen, planmäßiges (im Gegensatz zu vollständig randomisiertem oder "festverdrahtetem") Verhalten, Optimierung von Ablaufschritten, etc.. Königsdisziplin ist dabei sicherlich die Abstraktion und Antizipation. Soweit würde ich dann aber nicht bei meinen Forderungen gehen wollen. Im Zweifel kann man das Ganze einfach umdrehen und schauen, ob man einem Lebewesen beim Ausführen derselben Tätigkeit kognitive Leistung unterstellen würde.

Bei Beispielen für angewandte KI fällt mir spontan so etwas wie Spracherkennung, Bildervergleiche etc. ein. Deren Mustererkennung setzt zwingend oben genannte Prozesse voraus. Bei vielen anderen Dingen kann man dagegen nicht so ganz sicher sein, wie sie letzten Endes implementiert worden sind. Eine Lernphase bsw. kann unter Umständen ja gerade auch dazu dienen, KI zu ersetzen (oft genutzt bsw. für Handschriftenerkennung, um das Problem der Mustererkennung zu umgehen). Letzten Endes kann man das Ganze schwer von der Art der Problemstellung abhängig machen, sondern muss zwangsläufig auch ein Stück nach der Problemlösung fragen. Wenn man um KI herumkommt, wird sie allerdings normalerweise auch nicht genutzt :D

Drosan 15 Kenner - 2885 - 11. Juni 2014 - 20:06 #

Glaub so könnten wir noch ein wenig weiter diskutieren oder teilweise philosophieren :) Wenn dich das Themenumfeld KI weiterführend interessiert, kannst du ja mal einen Blick auf das "Handbuch der künstlichen Intelligenz" von Görz, Rollinger und Schneeberger werfen. Ich habe nur Auszüge daraus gelesen, fand es aber recht interessant. Wenn auch nicht immer ganz einfach.

Deep Thought 15 Kenner - 3159 - 11. Juni 2014 - 22:55 #

Jo, ist ein schwieriges und wohl auch teilweise philosophisches Problem.

KI interessiert mich persönlich sehr stark, seit ich erste Wegfindungs-Routinen für kleinere Spielchen selbst programmiert habe und deren Fallstricke am eigenen Leib erfahren durfte (wirklich grauenhaft zu debuggen) :)

Danke vielmals für den Buchtipp ...

Vaedian (unregistriert) 11. Juni 2014 - 17:46 #

Schon mal von Google korrigiert worden? Oder hat dir Google schon mal die korrekte Liste von Suchbegriffen ganz allein vorgegeben?

Das ist eine KI. Sie analysiert Milliarden von Suchanfragen mit mindestens ebenso vielen Rechtschreibfehlern, stellt Verknüpfungen her (Bettina Wulff + Escort :P) und lernt, was die Menschen interessiert. Dass man sich mit Google nicht unterhalten kann, liegt bisher an der Spezialisierung.

Das ist das Problem von KIs. Jeder denkt sofort an Data von der Enterprise. Das aber auch der Mensch mal mit Steineklopfen und Feuermachen begonnen hat, wird gerne ausgeblendet. Schwarzafrikaner wurden als Untermenschen minderer Intelligenz angesehen, bis sie mal jemand zur Schule geschickt hat.

Irgendwann wird eine "echte" KI wie aus dem Nichts auftauchen und die ganze Welt wird erstaunt gucken wie bei den Snowden-Enthüllungen obwohl die Tatsachen schon Jahrzehnte auf dem Tisch lagen.

Als Lesestoff empfehle ich Ray Kurzweil: http://www.kurzweilai.net/singularity-q-a

Flo_the_G 14 Komm-Experte - 2098 - 11. Juni 2014 - 18:09 #

Hab ich schon gelesen, hat mich nicht überzeugt.

Google als KI, geschenkt. Erkennt aber trotzdem nicht meine Sprache und/oder Schrift, und erst recht nicht im Alltag. Meine eingängliche Kritik bleibt. ;)

Bergschlampe 07 Dual-Talent - 144 - 12. Juni 2014 - 18:49 #

Also bei Korrekturen bzw. Auto-Vervollständigungen kann ich keine Aussage zu machen.
Was aber das Pageranking angeht hat das eher was mit Mathematik als mit Intelligenz zu tun. Genauer mit linearer Algebra und der Eigenwerttheorie.
Ums mal kurz zu machen: Die Google-Server rechnen in regelmäßigen Abständen ein zwar dünn besetztes aber dennoch riesiges Matrizenprodukt (ca. (3*10^9)x(3*10^9)-Matrix) aus.
Daher wär ich mit solchen Aussagen, dass das auf jeden fall ne KI ist nicht zu voreilig...
Die momentan viel interessanteren Durchbrüche sind in einem eigentlich recht alten Bereich: Deep learning.
Diese wiederum sind aber auf die in den letzten Jahren massiv gestiegene Rechenpower zurückzuführen!!!

McSpain 21 Motivator - 27393 - 11. Juni 2014 - 16:42 #

Wenn es danach geht finde ich auch eine Jury die zu 30% glaubt die Bild wäre Journalismus.

Drosan 15 Kenner - 2885 - 11. Juni 2014 - 16:43 #

Mit einer geschickten Auswahl kommst du auch auf 100 % :)

Amco 18 Doppel-Voter - P - 10763 - 11. Juni 2014 - 17:07 #

Ich dachte immer das wäre Papierverschwendung. Aber nun gut.

Deep Thought 15 Kenner - 3159 - 11. Juni 2014 - 17:06 #

Bei Eugene scheint es sich wohl eher um einen PR-Stunt zu handeln.

Das fängt schon mit den Zeitpunkt an: pünktlich zum (afaik) 65-jährigen Jubiläum des Turing-Tests.

Eine Einschränkung der Vita auf einen 13-jährigen ukrainischen Jungen (nicht erwachsen, Englisch nicht als Muttersprache) ist schon mehr als bedenklich.

Den "Testern" standen, anders als im Newstext beschrieben, nicht 5 Minuten pro Blindtest, sondern lediglich kombiniert 5 Minuten für 2 simultane Probanden, zur Vefügung.

Bei nur 30 Testern wirds eh problematisch, wenn man da ein paar intellektuelle "Ausreisser" (nach oben wie unten) dabei hat.

Auch die 30% "Täuschungsquote" ist so von Turing als Kriterium für das Bestehen nie postuliert worden. Eine so niedrige Quote ist eh schon seltsam, wenn man beim Blindraten eine 50/50-Chance hat. Selbst der Cleverbot hatte 2011 schon eine "Täuschungsquote" von mehr als 50% (statistisch auch nicht ganz unproblematisch, da scheints dann eher darauf rauszulaufen, ein Test für Intelligenz bei den Testern zu werden).

Eugene selbst scheint kein besonders gutes Beispiel für KI, sondern eher für geschickte Ausweichstrategien in der Gesprächsführung zu sein. Halt ein typischer Chatbot.

Die Liste lässt sich beliebig lange fortsetzen. Am Ende bleibt: wenn das die Zukunft der KI sein soll, braucht es wohl keine ...

BTW: unter

http://default-environment-sdqm3mrmp4.elasticbeanstalk.com/

kann den jeder einmal selbst testen. Sehr ernüchternd das Ganze.

7r9e9h6 (unregistriert) 11. Juni 2014 - 17:41 #

Dazu kommt, dass man einen Chatbot nicht grade als KI bezeichnen kann. Und darum ging es ja Turing.

Vor allem aber stehen Vita des Bots und Zeit des Tests in der Kritik. Sowas geht sonst so 20min.

Wenn es wen interessiert, mal ein kleines Gespräch mit dem Bot.
time.com/2847900/eugene-goostman-turing-test/

Offensichtlich vermerkt der Bot nicht mal welche Ausweichthemen er schon bentutz hat.

Deep Thought 15 Kenner - 3159 - 11. Juni 2014 - 18:39 #

Hehe, alle diese Punkte hatte ich bereits als solche aufgelistet ;) Oder sollte es sich bei dieser "Ergänzung" um Zustimmung handeln? :D

Man muss auch nicht von anderen produzierte Chatlogs lesen, unter dem von mir beigefügten Link kann man Eugene einfach selbst testen (mit der Einschränkung, dass man da weiß, dass es ein Bot ist) ...

Anonhans (unregistriert) 11. Juni 2014 - 22:08 #

Der Bot auf der Webseite und die Chatlogs, die man so findet, sind aber auch schon mindestens 2 Jahre alt. Von dem Programm, dass jetzt getestet wurde, gibt es wohl noch keien Chatlogs oder ne öffentliche Version.
Allerdings hab ich meine Zweifel, dass sich da in 2 Jahren was bahnbrechendes weiterentwickelt hat und der alte Version ist doch reichlich ernüchternd. Und in den restlichen Punkten kann ich dir auch nur zustimmen.

Deep Thought 15 Kenner - 3159 - 11. Juni 2014 - 22:48 #

Oh, gut zu wissen. Wusste nicht, dass es das Dingens in mehreren Versionen gibt.

Vielleicht ist er ja doch ein wenig besser geworden. Andernfalls würde ich mir jedenfalls ernsthafte Sorgen um die natürliche Intelligenz der 10 getäuschten Tester machen ...

falc410 14 Komm-Experte - 2429 - 12. Juni 2014 - 9:36 #

Ist das die gebräuchliche Übersetzung von Divide & Conquer? Da hätte ich mir gar nichts drunter vorstellen können. :)

Drosan 15 Kenner - 2885 - 12. Juni 2014 - 11:11 #

In der Informatik wird jedenfalls von "Teile-und-Herrsche" gesprochen. Kommt aber auch immer auf den Gesprächspartner drauf an :)
Fast immer wird aber auch die englische Bezeichnung dazu genannt.

Marco Büttinghausen 19 Megatalent - P - 19331 - 18. Juni 2014 - 18:04 #

Neben den eher fragwürdigen erreichten 30% sehe ich auch ein weiteres Problem, der Turing Test sagt ganz klar das der Proband mit einem Computer UND einem Menschen chatten muss, und dann unterscheiden muss wer der Mensch ist. Hier klingt es so als hätten die Leute in der kurzen Zeit nur mit dem Bot kommuniziert, was meiner Meinung nach, diese Bedingung nicht erfüllt.

Kommentar hinzufügen

Neuen Kommentar abgeben
(Antworten auf andere Comments bitte per "Antwort"-Knopf.)
Mitarbeit
ChrisLmrkhfloppyHemaehn
News-Vorschlag: