15
Feb
2019

Elon Musk-unterstützte KI-Unternehmen behauptet, dass es einen Textgenerator gemacht hat, der zu gefährlich ist, um ihn zu veröffentlichen

Forscher der gemeinnützigen KI-Forschungsgruppe OpenAI wollten nur ihre neue Textgenerierungssoftware trainieren, um das nächste Wort in einem Satz vorherzusagen. Es hat alle ihre Erwartungen enttäuscht und war so gut darin, das Schreiben von Menschen nachzuahmen, dass sie beschlossen haben, die Forschung zu bremsen, während sie den Schaden untersuchen, den sie anrichten könnte.

Elon Musk hat deutlich gemacht, dass er glaubt, dass künstliche Intelligenz die „größte existenzielle Bedrohung“ für die Menschheit ist. Musk ist einer der Hauptförderer von OpenAI und obwohl er eine Rolle im Hintergrund der Organisation eingenommen hat, scheinen ihre Forscher seine Bedenken über die Öffnung der Büchse der Pandora zu teilen. Diese Woche teilte OpenAI ein Papier über ihre neueste Arbeit über Textgenerierungstechnologie, aber sie weichen von ihrer Standardpraxis ab, die vollständige Forschung der Öffentlichkeit zugänglich zu machen, aus Angst, dass sie von schlechten Schauspielern missbraucht werden könnte. Anstatt das vollständig trainierte Modell zu veröffentlichen, wird ein kleineres Modell veröffentlicht, mit dem die Forscher experimentieren können.

Die Forscher nutzten 40 GB Daten von 8 Millionen Webseiten, um die GPT-2-Software zu trainieren. Das ist das Zehnfache der Datenmenge, die sie für die erste Iteration von GPT verwendet haben. Der Datensatz wurde zusammengetragen, indem durch Reddit geblättert und Links zu Artikeln mit mehr als drei Upvotes ausgewählt wurden. Als der Trainingsprozess abgeschlossen war, stellten sie fest, dass der Software eine kleine Textmenge zugeführt werden konnte und sie überzeugend weiter ausführlich auf der Grundlage der Eingabeaufforderung schreiben konnte. Es hat Probleme mit „hochtechnischen oder esoterischen Arten von Inhalten“, aber wenn es um mehr dialogorientiertes Schreiben geht, hat es in 50 Prozent der Fälle „vernünftige Proben“ generiert.

In einem Beispiel wurde der Software dieser Absatz zugeführt:

In einem schockierenden Fund entdeckte der Wissenschaftler eine Herde von Einhörnern, die in einem abgelegenen, bisher unerforschten Tal in den Anden leben. Noch überraschender für die Forscher war die Tatsache, dass die Einhörner perfektes Englisch sprachen.

Basierend auf diesen beiden Sätzen war es möglich, diese skurrile Nachrichtengeschichte für weitere neun Absätze in einer Weise zu schreiben, die glaubhaft von einem Menschen geschrieben worden wäre. Hier sind die nächsten Maschinenabschnitte, die von der Maschine produziert wurden:

Der Wissenschaftler benannte die Bevölkerung nach ihrem markanten Horn, dem Einhorn von Ovid. Diese vierhörnigen, silberweißen Einhörner waren der Wissenschaft bisher unbekannt.

Jetzt, nach fast zwei Jahrhunderten, ist das Geheimnis, was dieses seltsame Phänomen ausgelöst hat, endlich gelöst.

Dr. Jorge Pérez, ein Evolutionsbiologe der Universität La Paz, und mehrere Begleiter erkundeten die Anden, als sie ein kleines Tal fanden, ohne andere Tiere oder Menschen. Pérez bemerkte, dass das Tal einen scheinbar natürlichen Brunnen hatte, der von zwei Gipfeln aus Felsen und silbernem Schnee umgeben war.

Das GPT-2 ist bemerkenswert gut darin, sich an den Stil und den Inhalt der Anweisungen anzupassen, die es gibt. The Guardian konnte die Software für einen Spin mitnehmen und die erste Linie von George Orwells Nineteen Eighty-Four ausprobieren: „Es war ein heller, kalter Tag im April, und die Uhren schlugen dreizehn.“ Das Programm nahm den Ton der Auswahl auf und ging mit einer eigenen dystopischen Science Fiction weiter:

Ich war in meinem Auto auf dem Weg zu einem neuen Job in Seattle. Ich habe das Benzin reingetan, den Schlüssel reingetan und dann ließ ich es laufen. Ich habe mir nur vorgestellt, wie der Tag aussehen würde. In hundert Jahren. Im Jahr 2045 war ich Lehrer an einer Schule in einem armen Teil des ländlichen China. Ich begann mit der chinesischen Geschichte und der Wissenschaftsgeschichte.

Die OpenAI-Forscher fanden heraus, dass GPT-2 sehr gut funktioniert, wenn es Aufgaben erhält, für die es nicht unbedingt konzipiert ist, wie Übersetzung und Zusammenfassung. In ihrem Bericht schrieben die Forscher, dass sie das trainierte Modell einfach richtig auffordern mussten, diese Aufgaben auf einem Niveau zu erfüllen, das mit anderen spezialisierten Modellen vergleichbar ist. Nach der Analyse einer Kurzgeschichte über ein olympisches Rennen konnte die Software grundlegende Fragen wie „Wie lang war das Rennen“ und „Wo begann das Rennen“ richtig beantworten.

Diese hervorragenden Ergebnisse haben die Forscher erschreckt. Eine Sorge, die sie haben, ist, dass die Technologie verwendet wird, um gefälschte Nachrichtenoperationen aufzuladen. The Guardian veröffentlichte einen gefälschten Nachrichtenartikel, der von der Software geschrieben wurde, zusammen mit seiner Berichterstattung über die Forschung. Der Artikel ist lesbar und enthält gefälschte Zitate, die zum Thema und realistisch sind. Die Grammatik ist besser als viel, was man von gefälschten Nachrichteninhaltsfabriken sehen würde. Und laut Alex Hern von The Guardian dauerte es nur 15 Sekunden, bis der Bot den Artikel geschrieben hatte.

You may also like...