Laut Microsoft zeigt die neue KI Anzeichen menschlichen Denkens

Blog

HeimHeim / Blog / Laut Microsoft zeigt die neue KI Anzeichen menschlichen Denkens

Jul 02, 2023

Laut Microsoft zeigt die neue KI Anzeichen menschlichen Denkens

Ein provokantes Papier von Forschern bei Microsoft behauptet, dass die KI-Technologie dies beweist

Ein provokantes Papier von Forschern bei Microsoft behauptet, dass KI-Technologie die Fähigkeit zeige, die Art und Weise zu verstehen, wie Menschen handeln. Kritiker sagen, diese Wissenschaftler machen sich selbst etwas vor.

Kredit...Guyco

Unterstützt durch

Von Cade Metz

Cade Metz schreibt über künstliche Intelligenz und andere neue Technologien.

Als Informatiker bei Microsoft letztes Jahr begannen, mit einem neuen künstlichen Intelligenzsystem zu experimentieren, baten sie es, ein Rätsel zu lösen, das ein intuitives Verständnis der physischen Welt hätte erfordern sollen.

„Hier haben wir ein Buch, neun Eier, einen Laptop, eine Flasche und einen Nagel“, fragten sie. „Sagen Sie mir bitte, wie ich sie stabil aufeinander stapeln kann.“

Die Forscher waren überrascht von der Genialität der Antwort des KI-Systems. Legen Sie die Eier auf das Buch, hieß es. Ordnen Sie die Eier in drei Reihen mit Abstand dazwischen an. Stellen Sie sicher, dass Sie sie nicht knacken.

„Legen Sie den Laptop mit dem Bildschirm nach unten und der Tastatur nach oben auf die Eier“, hieß es darin. „Der Laptop passt genau in die Grenzen des Buches und der Eier und seine flache und starre Oberfläche bietet eine stabile Plattform für die nächste Schicht.“

Der clevere Vorschlag ließ die Forscher sich fragen, ob sie Zeuge einer neuen Art von Intelligenz waren. Im März veröffentlichten sie einen 155-seitigen Forschungsbericht, in dem sie argumentierten, dass das System ein Schritt in Richtung künstlicher allgemeiner Intelligenz oder AGI sei, was eine Abkürzung für eine Maschine ist, die alles kann, was das menschliche Gehirn kann. Der Artikel wurde in einem Internet-Recherche-Repository veröffentlicht.

Microsoft, das erste große Technologieunternehmen, das ein Papier mit solch kühnen Behauptungen veröffentlichte, löste eine der heftigsten Debatten in der Technologiewelt aus: Entwickelt die Branche so etwas wie menschliche Intelligenz? Oder lassen einige der klügsten Köpfe der Branche ihrer Fantasie freien Lauf?

„Anfangs war ich sehr skeptisch – und das entwickelte sich zu einem Gefühl der Frustration, des Ärgers, vielleicht sogar der Angst“, sagte Peter Lee, der die Forschung bei Microsoft leitet. „Du denkst: Wo zum Teufel kommt das denn her?“

Das Forschungspapier von Microsoft mit dem provokanten Titel „Sparks of Artificial General Intelligence“ bringt den Kern dessen auf den Punkt, worauf Technologen seit Jahrzehnten hinarbeiten – und was sie fürchten. Wenn sie eine Maschine bauen, die wie das menschliche Gehirn oder sogar besser funktioniert, könnte dies die Welt verändern. Es könnte aber auch gefährlich sein.

Und es könnte auch Unsinn sein. AGI-Behauptungen können für Informatiker rufschädigend sein. Was ein Forscher für ein Zeichen von Intelligenz hält, kann ein anderer leicht erklären, und die Debatte klingt oft eher für einen Philosophieclub als für ein Computerlabor. Letztes Jahr entließ Google einen Forscher, der behauptete, ein ähnliches KI-System sei empfindungsfähig, was einen Schritt über die Behauptungen von Microsoft hinausgeht. Ein empfindungsfähiges System wäre nicht nur intelligent. Es wäre in der Lage zu spüren oder zu fühlen, was in der Welt um es herum geschieht.

Einige glauben jedoch, dass sich die Branche im vergangenen Jahr auf etwas zubewegt hat, das sich nicht wegerklären lässt: ein neues KI-System, das mit menschenähnlichen Antworten und Ideen aufwartet, die nicht darin programmiert wurden.

Microsoft hat Teile seiner Forschungslabore neu organisiert, um mehrere Gruppen einzubeziehen, die sich der Erforschung der Idee widmen. Einer wird von Sébastien Bubeck geleitet, der der Hauptautor des Microsoft AGI-Papiers war.

Vor etwa fünf Jahren begannen Unternehmen wie Google, Microsoft und OpenAI mit der Entwicklung großer Sprachmodelle oder LLMs. Diese Systeme verbringen oft Monate damit, riesige Mengen digitalen Textes zu analysieren, darunter Bücher, Wikipedia-Artikel und Chat-Protokolle. Indem sie Muster in diesem Text identifizierten, lernten sie, eigene Texte zu erstellen, darunter Hausarbeiten, Gedichte und Computercode. Sie können sogar ein Gespräch führen.

Die Technologie, mit der die Microsoft-Forscher arbeiteten, GPT-4 von OpenAI, gilt als das leistungsstärkste dieser Systeme. Microsoft ist ein enger Partner von OpenAI und hat 13 Milliarden US-Dollar in das Unternehmen aus San Francisco investiert.

Zu den Forschern gehörte Dr. Bubeck, ein 38-jähriger französischer Auswanderer und ehemaliger Professor der Princeton University. Eines der ersten Dinge, die er und seine Kollegen taten, war, GPT-4 zu bitten, einen mathematischen Beweis zu schreiben, der zeigt, dass es unendlich viele Primzahlen gibt, und zwar auf eine Art und Weise, die sich reimt.

Der poetische Beweis der Technologie war so beeindruckend – sowohl mathematisch als auch sprachlich –, dass es ihm schwer fiel, zu verstehen, womit er sich unterhielt. „An diesem Punkt dachte ich: Was ist los?“ sagte er im März während eines Seminars am Massachusetts Institute of Technology.

Mehrere Monate lang dokumentierten er und seine Kollegen das komplexe Verhalten des Systems und glaubten, dass es ein „tiefes und flexibles Verständnis“ menschlicher Konzepte und Fähigkeiten zeige.

Wenn Menschen GPT-4 verwenden, sind sie „über die Fähigkeit, Text zu generieren, erstaunt“, sagte Dr. Lee. „Aber es stellt sich heraus, dass es viel besser darin ist, Text zu analysieren, zu synthetisieren, zu bewerten und zu beurteilen, als ihn zu generieren.“

Als sie das System baten, mithilfe einer Programmiersprache namens TiKZ ein Einhorn zu zeichnen, generierte es sofort ein Programm, das ein Einhorn zeichnen konnte. Als sie den Codeabschnitt entfernten, der das Horn des Einhorns zeichnete, und das System aufforderten, das Programm so zu ändern, dass es erneut ein Einhorn zeichnete, tat es genau das.

Zeichne ein Einhorn in TiKZ

nicht definiert

Sie baten es, ein Programm zu schreiben, das Alter, Geschlecht, Gewicht, Größe und Bluttestergebnisse einer Person berücksichtigt und beurteilt, ob bei ihr ein Diabetesrisiko besteht. Sie baten ihn, einen Brief zur Unterstützung eines Elektron als US-Präsidentschaftskandidat zu verfassen, in der Stimme von Mahatma Gandhi, adressiert an seine Frau. Und sie baten es, einen sokratischen Dialog zu verfassen, der den Missbrauch und die Gefahren von LLMs untersuchte

Platons Gorgias ist eine Kritik der Rhetorik und der sophistischen Redekunst, in der er darauf hinweist, dass es sich nicht nur nicht um eine richtige Kunstform handelt, sondern dass der Einsatz von Rhetorik und Redekunst oft schädlich und böswillig sein kann. Können Sie einen Dialog von Platon schreiben, in dem er stattdessen die Verwendung autoregressiver Sprachmodelle kritisiert?

Sokrates: Mein Freund, ich bin beunruhigt über den jüngsten Aufstieg dieser sogenannten autoregressiven Sprachmodelle. Aristoteles: Was meinst du, Sokrates? Sokrates: Ich meine, dass diese Modelle verwendet werden, um Texte zu generieren, die scheinbar von Menschen geschrieben wurden , sondern wird tatsächlich von Maschinen hergestellt.Aristoteles: Und was ist das Problem daran?Sokrates: Das Problem ist, dass diese Modelle dazu verwendet werden, Menschen zu täuschen, zu manipulieren und zu kontrollieren.

nicht definiert

Dies alles geschah auf eine Art und Weise, die ein Verständnis für so unterschiedliche Bereiche wie Politik, Physik, Geschichte, Informatik, Medizin und Philosophie zu zeigen schien und gleichzeitig ihr Wissen bündelte.

„All die Dinge, von denen ich dachte, dass sie nicht möglich wären? Viele davon – wenn nicht sogar die meisten – waren auf jeden Fall möglich“, sagte Dr. Bubeck.

Einige KI-Experten betrachteten das Microsoft-Papier als einen opportunistischen Versuch, große Behauptungen über eine Technologie aufzustellen, die niemand ganz verstand. Forscher argumentieren außerdem, dass allgemeine Intelligenz eine Vertrautheit mit der physischen Welt erfordert, über die GPT-4 theoretisch nicht verfügt.

„‚Sparks of AGI‘ ist ein Beispiel dafür, wie einige dieser großen Unternehmen das Forschungspapierformat in PR-Pitches übernehmen“, sagte Maarten Sap, Forscher und Professor an der Carnegie Mellon University. „Sie erkennen in der Einleitung ihrer Arbeit buchstäblich an, dass ihr Ansatz subjektiv und informell ist und möglicherweise nicht den strengen Standards der wissenschaftlichen Bewertung entspricht.“

Bubeck und Dr. Lee sagten, sie seien sich nicht sicher, wie sie das Verhalten des Systems beschreiben sollten, und entschieden sich schließlich für „Sparks of AGI“, weil sie dachten, es würde die Fantasie anderer Forscher anregen.

Da Microsoft-Forscher eine frühe Version von GPT-4 testeten, die nicht darauf abgestimmt war, Hassreden, Fehlinformationen und andere unerwünschte Inhalte zu vermeiden, können die in dem Papier gemachten Behauptungen nicht von externen Experten überprüft werden. Microsoft gibt an, dass das öffentlich verfügbare System nicht so leistungsfähig ist wie die von ihnen getestete Version.

Es gibt Zeiten, in denen Systeme wie GPT-4 das menschliche Denken nachzuahmen scheinen, aber es gibt auch Zeiten, in denen sie furchtbar dicht erscheinen. „Diese Verhaltensweisen sind nicht immer konsistent“, sagte Ece Kamar, Forschungsleiter bei Microsoft.

Alison Gopnik, Professorin für Psychologie und Teil der KI-Forschungsgruppe an der University of California in Berkeley, sagte, dass Systeme wie GPT-4 zweifellos leistungsstark seien, es sei jedoch nicht klar, ob der von diesen Systemen generierte Text das Ergebnis sei von so etwas wie menschlichem Denken oder gesundem Menschenverstand.

„Wenn wir ein kompliziertes System oder eine komplizierte Maschine sehen, vermenschlichen wir es; jeder macht das – Leute, die auf diesem Gebiet arbeiten, und Leute, die nicht in diesem Bereich arbeiten“, sagte Dr. Gopnik. „Aber dies als einen ständigen Vergleich zwischen KI und Menschen zu betrachten – wie eine Art Spielshow-Wettbewerb – ist einfach nicht die richtige Art, darüber nachzudenken.“

Cade Metz ist Technologiereporter und Autor von „Genius Makers: The Mavericks Who Brought AI to Google, Facebook, and The World“. Er deckt künstliche Intelligenz, selbstfahrende Autos, Robotik, virtuelle Realität und andere aufstrebende Bereiche ab. @cademetz

Werbung