Hinter dem Papier, das zum Entlassen eines Google-Forschers führte
Standarts

Hinter dem Papier, das zum Entlassen eines Google-Forschers führte

Anfang dieses Jahres sandte Google-Forscher für künstliche Intelligenz Timnit Gebru eine Twitter-Nachricht an Emily, Professorin an der Universität von Washington Bender. Gebru fragte Bender, ob sie über die ethischen Fragen geschrieben habe, die sich aus den jüngsten Fortschritten in der KI ergeben, die Text verarbeitet. Bender hatte es nicht getan, aber das Paar geriet in ein Gespräch über die Einschränkungen einer solchen Technologie, wie zum Beispiel Beweise dafür, dass sie die voreingenommene Sprache, die online gefunden wurde, replizieren kann.

Bender fand die DM-Diskussion belebend und schlug vor, es in eine wissenschaftliche Arbeit einzubauen. „Ich hoffte, die nächste Wendung im Gespräch zu provozieren“, sagt Bender. „Wir haben all diese Aufregung und diesen Erfolg gesehen. Lassen Sie uns einen Schritt zurücktreten und sehen, welche Risiken möglich sind und was wir tun können.“ Der Entwurf wurde in einem Monat mit fünf weiteren Mitautoren von Google und der Wissenschaft verfasst und im Oktober einer akademischen Konferenz vorgelegt. Es würde bald zu einer der berüchtigtsten Forschungsarbeiten in der KI werden.

Letzte Woche sagte Gebru, sie sei von Google entlassen worden, nachdem sie der Aufforderung eines Managers widersprochen hatte, ihren Namen zurückzuziehen oder zu entfernen das Papier. Googles KI-Chef sagte, die Arbeit habe „unsere Messlatte für die Veröffentlichung nicht erreicht“. Seitdem haben mehr als 2.200 Google-Mitarbeiter einen Brief unterschrieben, in dem mehr Transparenz bei der Bearbeitung des Entwurfs durch das Unternehmen gefordert wird. Am Samstag schrieb Gebru-Manager, der Google AI-Forscher Samy Bengio, auf Facebook, er sei „fassungslos“ und erklärte: „Ich stehe zu dir, Timnit.“ KI-Forscher außerhalb von Google haben die Behandlung von Gebru durch das Unternehmen öffentlich geißelt.

Die Aufregung verlieh dem Papier, das Gebru’s plötzlichen Ausstieg katalysierte, eine Aura ungewöhnlicher Macht. Es zirkulierte in KI-Kreisen wie Samizdat. Das Bemerkenswerteste an dem 12-seitigen Dokument von WIRED ist jedoch, wie unumstritten es ist. Das Papier greift weder Google noch seine Technologie an und dürfte den Ruf des Unternehmens nicht beeinträchtigt haben, wenn Gebru es mit ihrer Google-Zugehörigkeit hätte veröffentlichen dürfen.

Das Papier untersucht frühere Forschungsergebnisse zu die Einschränkungen von KI-Systemen, die Sprache analysieren und generieren. Es werden keine neuen Experimente vorgestellt. Die Autoren zitieren frühere Studien, die zeigen, dass Sprach-KI große Mengen an Elektrizität verbrauchen kann, und spiegeln unappetitliche Vorurteile wider, die im Online-Text zu finden sind. Und sie schlagen vor, wie KI-Forscher mit der Technologie vorsichtiger umgehen können, unter anderem durch eine bessere Dokumentation der Daten, die zur Erstellung solcher Systeme verwendet werden.

Googles Beiträge auf diesem Gebiet – einige davon werden jetzt in der Technologie eingesetzt Suchmaschine – werden referenziert, aber nicht für besondere Kritik ausgewählt. Eine der zitierten Studien, die Hinweise auf Verzerrungen in der Sprach-KI zeigen, wurde Anfang dieses Jahres von Google-Forschern veröffentlicht.

„Dieser Artikel ist eine sehr solide und gut recherchierte Arbeit. ”Sagt Julien Cornebise, ein ehrenamtlicher außerordentlicher Professor am University College London, der einen Entwurf des Papiers gesehen hat. „Es ist schwer zu erkennen, was in einem Labor einen Aufruhr auslösen könnte, geschweige denn dazu führen könnte, dass jemand seinen Job verliert.“

Die Reaktion von Google könnte darauf hindeuten, dass sich Unternehmensleiter anfälliger fühlen zu ethischen Kritiken, als Gebru und andere erkannten – oder dass es bei ihrer Abreise um mehr als nur das Papier ging. Das Unternehmen antwortete nicht auf eine Anfrage nach einem Kommentar. In einem Blogbeitrag am Montag schlugen Mitglieder des KI-Ethik-Forschungsteams von Google vor, Manager hätten den internen Forschungsprüfungsprozess von Google gegen Gebru gerichtet. Gebru sagte letzte Woche, dass sie möglicherweise wegen Kritik an Googles Diversity-Programmen entfernt wurde und in einer kürzlich veröffentlichten Gruppen-E-Mail darauf hinwies, dass Mitarbeiter nicht mehr an ihnen teilnehmen.

Hinter dem Papier, das zum Entlassen eines Google-Forschers führte

Der WIRED-Leitfaden zur künstlichen Intelligenz

Supersmart-Algorithmen übernehmen nicht alle Aufgaben, aber sie lernen schneller als je zuvor und erledigen alles von der medizinischen Diagnostik bis zur Schaltung von Anzeigen.

Der Entwurf, der die Kontroverse auslöste Die Bewegung trägt den Titel „Über die Gefahren stochastischer Papageien: Können Sprachmodelle zu groß sein?“ (Es enthält ein Papageien-Emoji nach dem Fragezeichen.) Es wirft einen kritischen Blick auf einen der lebhaftesten Bereiche der KI-Forschung.

Tech-Unternehmen wie Google haben stark investiert KI seit Anfang der 2010er Jahre, als Forscher entdeckten, dass sie die Sprach- und Bilderkennung mithilfe einer als maschinelles Lernen bezeichneten viel genauer gestalten können. Diese Algorithmen können ihre Leistung bei einer Aufgabe, beispielsweise beim Transkribieren von Sprache, verfeinern, indem sie mit Beschriftungen versehene Beispieldaten verarbeiten. Ein Ansatz namens Deep Learning ermöglichte erstaunliche neue Ergebnisse, indem Lernalgorithmen mit viel größeren Sammlungen von Beispieldaten und leistungsstärkeren Computern gekoppelt wurden.

In den letzten Jahren haben Forscher herausgefunden, wie man maschinelle Lernmodelle auch für Sprache skalieren kann. Sie zeigten große Fortschritte bei Aufgaben wie der Beantwortung von Fragen oder der Generierung von Text, indem Algorithmen für maschinelles Lernen Milliarden von Wörtern aus dem Web verdauen. Diese Systeme arbeiten mit den statistischen Sprachmustern. Sie verstehen die Welt nicht so wie Menschen und können dennoch Fehler machen, die einem Menschen offensichtlich erscheinen. Aber sie können sich ihren Weg zu beeindruckenden Leistungen wie der Beantwortung von Fragen oder der Generierung von flüssigem neuen Text bahnen.

Ein solches System, Googles BERT, wird verwendet, um die Suchmaschine des Unternehmens zu verbessern bearbeitet lange Anfragen. Microsoft hat angekündigt, ein System namens GPT-3 von OpenAI, einem unabhängigen Labor, zu lizenzieren, das auch von Unternehmern genutzt wird, um E-Mails und Anzeigenkopien zu schreiben.

Dieser Fortschritt hat andere Forscher zu Fragen veranlasst die Grenzen und möglichen gesellschaftlichen Auswirkungen dieser neuen Sprachtechnologie. Gebru, Bender und ihre Mitautoren wollten diese Arbeit zusammenfassen und vorschlagen, wie die Forschungsgemeinschaft reagieren soll.

Hinter dem Papier, das zum Entlassen eines Google-Forschers führte

Die Autoren weisen darauf hin zu früheren Untersuchungen, die berechneten, dass das Training eines großen Sprachmodells vom Bau bis zum Schrottplatz so viel Energie verbrauchen kann wie ein Auto, und ein Projekt, das zeigte, dass KI Online-Verschwörungstheoretiker imitieren könnte

Eine weitere in dem Artikel zitierte Studie wurde Anfang dieses Jahres von Google-Forschern veröffentlicht und zeigte Einschränkungen von BERT, dem firmeneigenen Sprachmodell. Das Team, das Gebru nicht umfasste, zeigte, dass BERT dazu neigte, Sätze, die sich auf Behinderungen wie Zerebralparese oder Blindheit beziehen, mit negativer Sprache zu assoziieren. Alle Autoren scheinen immer noch bei Google zu arbeiten.

In dem Artikel, der Gebru zum Ausstieg veranlasste, fordern sie und ihre Mitautoren KI-Entwickler auf, bei Sprachprojekten vorsichtiger zu sein. Sie empfehlen Forschern, mehr zu tun, um den zur Erstellung der Sprach-KI verwendeten Text und die Einschränkungen der damit erstellten Systeme zu dokumentieren. Sie verweisen die Leser auf einige kürzlich vorgeschlagene Ideen zur Kennzeichnung von KI-Systemen mit Daten zu deren Genauigkeit und Schwächen. Eine von Gebru bei Google mitentwickelte Version heißt Modellkarten für die Modellberichterstattung und wurde von der Cloud-Abteilung von Google übernommen. Das Papier fordert Forscher, die Sprachsysteme aufbauen, auf, nicht nur die Perspektive von KI-Entwicklern zu berücksichtigen, sondern auch die von Personen außerhalb des Fachgebiets, die möglicherweise den Ergebnissen oder Beurteilungen der Systeme ausgesetzt sind.

In seiner Erklärung zu Gebru’s Abreise in der vergangenen Woche, in der er behauptete, das Papier sei von schlechter Qualität, sagte Googles Forschungsleiter Jeff Dean, er habe keine Forschungsergebnisse zur Erstellung effizienterer Sprachmodelle und Möglichkeiten zur Minderung von Voreingenommenheit angeführt.

Bender sagt, dass die Autoren 128 Zitate aufgenommen haben und wahrscheinlich weitere hinzufügen werden. Solche Ergänzungen sind während des akademischen Veröffentlichungsprozesses gängige Praxis und normalerweise kein Grund, eine Arbeit zurückzuziehen. Sie und andere KI-Forscher sagen auch, dass das Feld trotz Deans Kommentar weit davon entfernt ist, einen Weg zu finden, um Sprachverzerrungen zuverlässig zu beseitigen.

„Das ist noch in Arbeit, weil die Verzerrung viele erfordert Formen “, sagt Oren Etzioni, CEO des Allen Institute for AI, das seine eigenen Forschungen zu diesem Thema durchgeführt hat, darunter einige, die im Entwurf des Papiers zitiert wurden. „Es gibt eine Erkenntnis von so ziemlich jedem, der auf dem Gebiet arbeitet, dass diese Modelle immer einflussreicher werden und dass wir eine ethische Verpflichtung haben, sie verantwortungsbewusst einzusetzen.“


Weitere großartige WIRED Stories

  • 📩 Möchten Sie die neuesten Informationen zu Technologie, Wissenschaft und mehr? Melden Sie sich für unseren Newsletter an!
  • Die Suche eines Mannes für die DNA-Daten, die sein Leben retten könnten
  • Das Rennen um das Recycling von Batterien – bevor es zu spät ist
    • AI kann jetzt Ihre Arbeitstreffen abhalten
    • Verwöhnen Sie Ihre Katze über die Feiertage mit unserer Lieblingsausrüstung

    Hacker Lexicon: Was ist das Signalverschlüsselungsprotokoll?

  • 🎮 WIRED Games: Holen Sie sich die neuesten Tipps, Testberichte und mehr

🏃🏽‍♀️ Willst du die besten Werkzeuge, um gesund zu werden? Schauen Sie sich die Auswahl unseres Gear-Teams für die besten Fitness-Tracker, Laufausrüstung (einschließlich Schuhe und Socken) und an )

Weiterlesen

Kommentar hinterlassen