„Das Wort Information hat in dieser Theorie eine besondere Bedeutung, die nicht mit ihrer normalen Verwendung verwechselt werden sollte. Insbesondere sollten Informationen nicht mit Bedeutung verwechselt werden.“ Claude Shannon und Warren Weaver in „The Mathematical Theory of Information“ (1949)
In gewisser Weise ein sehr verstörender Ausdruck dessen, was allgemein bekannt ist „Künstliche Intelligenz“ (KI) Dieser kleine Roboter heißt. Es hat freundliche rechteckige blinkende Augen und erinnert etwas an einen kleinen Dyson-Staubsauger.
Wenn Sie ihn fragen: „Welche Schauspielerin wird in der Eröffnungsszene des Films ‚Scream‘ ermordet?“, Antwortet er richtig: „Drew Barrymore“. Auf die Frage, was Existentialismus ist, antwortet er: „Existenzialismus ist eine Philosophie, die die Freiheit des Einzelnen betont.“ Wenn Sie nach den Problemen dieser Denkweise fragen, sagt der Roboter: „Es ist zu subjektiv.“
Der Softwareentwickler Jon Barber baute den Roboter mit der komplexesten Autocomplete-Funktion, die die Welt je gesehen hat: dem Sprachproduktionssystem, das auf einem riesigen neuronalen Netzwerk basiert GPT-3 der US-Firma OpenAI. GPT-3 kann Texte basierend auf minimalen Spezifikationen ergänzen oder fast alle selbst schreiben. Es kann Fragen beantworten und sogar Software schreiben. Viele Entwickler sind erlaubt seit fast einem Monat Spielen Sie mit diesem neuen, unglaublich leistungsstarken Tool. Sie haben dabei noch mehr großartige Demonstrationen gemacht.
Die englische Wikipedia ist nur ein kleiner Auszug
Es wurde aber auch klar, wo die Probleme einer scheinbar intelligenten Maschine liegen – nämlich wo sie lange vermutet wurden.
Die extreme Leistung von GPT-3 hat viel mit der Größe des neuen Tools zu tun: Es besteht aus 175 Milliarden Parametern, dh 175 Milliarden Synapsen in einem künstlichen Netzwerk. Im Vergleich dazu hat ein menschliches Gehirn etwa 100 Billionen Synapsen. Eine Billion ist tausend Milliarden. GPT-3 ist also weit davon entfernt, ein Gehirn zu simulieren, aber es ist hundertmal umfassender als es bereits ist ziemlich beeindruckender Vorgänger GPT-2.
Das System ist auf eine große Menge von Text trainiert, der aus dem Internet abgerufen wird. Dies schließt zum Beispiel alle sechs Millionen Einträge in der englischsprachigen Wikipedia ein. Allein diese enorme Textmenge macht nur 0,6 Prozent der Gesamtmaterialmenge aus. das speiste das System. Was genau GPT-3 befeuert, ist unbekannt.
Claude Shannons Frau musste ebenfalls raten
GPT-3 ist ein bisschen wie die Außerirdischen, die manchmal in Filmen auftauchen, die zwei Tage lang vor einem Fernseher sitzen und dann auf dieser Basis sprechen und gelernt haben, die Welt zu verstehen. Selbst in diesem Szenario waren Sie immer ein wenig ratlos – wie genau würde das Weltbild aussehen, wenn jemand alles über „Celebrity Big Brother“, Quizshows und Chuck Norris-Filme erfahren würde?
Es gibt auch einen wichtigen Unterschied zwischen den fiktiven Aliens und der Lernmaschine: GPT-3 versteht absolut nichts. Selbst die leistungsstärksten Computer und Anwendungen von heute manipulieren reine „Informationen“. Und nicht im gewöhnlichen, informellen Sinne, sondern in der eingangs zitierten strengen Definition von Shannon und Weaver: „Information sollte nicht mit Bedeutung verwechselt werden.“ Informationen sind somit ein Maß für die statistische Vorhersagbarkeit, nicht mehr und nicht weniger.
Der Umgang von GPT-3 mit Text kommt der ursprünglichen Ansicht von Shannon und Weaver erstaunlich nahe: Er „errät“ anhand statistischer Abhängigkeiten zwischen Wörtern, Sätzen und Textteilen, die aus einer enormen Textmenge extrahiert wurden, wie ein bestimmtes Textfragment aussehen würde. kann fortsetzen. Claude Shannon selbst ließ seine Frau in den 1940er Jahren raten, wie vorgegebene Sätze fortgesetzt werden könnten, um festzustellen, wie viele Informationen ein bestimmter Satz tatsächlich enthält. Es gibt jedoch einen grundlegenden Unterschied zwischen Frau Shannon und GPT-3: Die Maschine versteht nicht, was die Wörter und Ausdrücke „bedeuten“.
„Kreativ, witzig, nachdenklich, meta und schön“
Der Essayist und Forscher Gwern Branwen, der GPT-3 hatte, demonstrierte mehrere Tricks, schreibt trotzdem: „Die Beispiele von GPT-3 sind nicht nur nah an der menschlichen Ebene: Sie sind kreativ, witzig, nachdenklich, meta und oft schön.“
Und weil andere Dinge als die menschliche Sprache Text sind, kann GPT-3 auch andere Texte schreiben – Gitarren-Tabs zum Beispiel. Oder Software, die John Carmack, der legendäre „Doom“ -Erfinder, „schauder ein wenig“. Tatsächlich ist das System anscheinend auch in der Lage, eine funktionierende Website zu erstellen, die auf einigen einfachen Anweisungen in einfachem Englisch basiert oder um eine App-Oberfläche zu erstellen.
Christian Stocker
Wir sind das Experiment: Unsere Welt verändert sich so atemberaubend, dass wir von Krise zu Krise taumeln. Wir müssen lernen, mit dieser enormen Beschleunigung umzugehen.
Editor: Karl Blessing Verlag
Seitennummer: 384
Kaufen Sie für 22,00 €
Preisanfragezeit
16.08.2020 12.48 Uhr
Keine Garantie
Produktbewertungen sind rein redaktionell und unabhängig. Über die oben genannten sogenannten Affiliate-Links erhalten wir beim Kauf in der Regel eine Provision vom Händler. Weitere Informationen hier
Die Maschine muss Manieren lernen
Die natürlich handverlesenen Beispiele für die Leistung des Systems, die zunächst kurz hintereinander auf Twitter oder in Entwicklerblogs präsentiert wurden, wurden schließlich selbst für den Leiter von OpenAI zu viel. „Der Hype ist viel zu groß“, Sam Altman twitterte.
Noch problematischer für Altman als der Hype waren jedoch die Probleme, die schnell auftauchten, dass sich ein Außerirdischer nicht mit dem Fernsehen „ausbildete“, sondern sich mit dem chaotischen Internet selbst auseinandersetzen musste: einem GPT-3-basierten Tweet-Generator, der zum Beispiel wann produziert wurde Sie haben es unter bestimmten Bedingungen produziert, manchmal extrem antisemitisch oder sexistische Textfragmente.
Das löste eine interessante öffentliche Twitter-Debatte aus zwischen OpenAI-Chef Altman und Facebooks KI-Chef Jerome Pesenti. Im Verlauf der Diskussion sprach der Facebook-Mann von gefährlicher „Verantwortungslosigkeit“ und schrieb diesen Satz, den sein eigenes Geschäft unbedingt haben muss sollte sich zu Herzen nehmen: „Der Hinweis auf ‚unbeabsichtigte Konsequenzen‘ hat zu dem gegenwärtigen Misstrauen in der Technologiebranche geführt.“ Bisher können Sie die Entschuldigung hören „Es war die Maschine“ vor allem von Unternehmen wie Facebook, Google oder Amazon.
Menschen sind oft schlechte Vorbilder
GPT-3 rückt das ins Rampenlicht Grundproblem der LernmaschinenDies wird auch in Facebook-Feeds gezeigt, die für Wut oder YouTube-Empfehlungen optimiert sind und auf der extremistischen Verschwörungstheorie basieren: Menschen sind oft miserable Vorbilder. Daher kann Maschinen, die von uns lernen, nicht vertraut werden.
GPT-3 hat nicht nur aus Wikipedia gelernt, sondern wahrscheinlich, wie das US-amerikanische Technologieportal „The Verge“ es ausdrückt, „aus pseudowissenschaftlichen Lehrbüchern, Verschwörungstheorien, rassistischen Broschüren und Manifesten von Massenmördern“.
Maske abreißen
OpenAI hat jetzt einen „Toxizitätsfilter“ eingebaut, um die schlimmsten automatisierten Überschüsse zu verhindern. Als ob der Außerirdische, der sein Verhalten aus den Filmen von Chuck Norris gelernt hat, jetzt dringend lernen muss, andere nicht zur Begrüßung niederzuschlagen.
Oder darüber mit dem Softwareentwickler Simon Sarris zu sagen: „Wir reißen die Maske nicht von der Maschine und setzen einen so brillanten Zauberer aus, wir reißen uns gegenseitig die Masken ab und zeigen, wie tief der Strahl hängt.“