Blake Lemoine, ein Google-Ingenieur, der öffentlich beansprucht Dass die Konversations-KI LaMDA des Unternehmens sensibel ist, wurde demnach lanciert Big Tech-NewsletterDass ich mit Lemoine gesprochen habe. Im Juni stellte Google Lemoine wegen Verstoßes gegen seine Vertraulichkeitsvereinbarung in bezahlten Verwaltungsurlaub, nachdem er sich mit Regierungsmitgliedern über seine Bedenken in Verbindung gesetzt und einen Anwalt engagiert hatte, um LaMDA zu vertreten.
Erklärung per E-Mail an die Kante Am Freitag erschien Google-Sprecher Brian Gabriel, um die Schießerei zu bestätigen, und sagte: „Wir wünschen Blake alles Gute.“ Das Unternehmen sagt auch: „LaMDA hat 11 verschiedene Überprüfungen durchlaufen, und wir haben Anfang dieses Jahres ein Forschungspapier veröffentlicht, in dem die Arbeit, die in seine verantwortungsvolle Entwicklung einfließt, detailliert beschrieben wird.“ Google behauptet, Lemoines Behauptungen „ausführlich“ geprüft und für „völlig unbegründet“ befunden zu haben.
Dies entspricht Viele Experten für künstliche Intelligenz und Ethiker, die sagten, seine Behauptungen seien angesichts der heutigen Technologie etwas unmöglich. Lemoine behauptet, dass seine Gespräche mit dem Chatbot von LaMDA ihn glauben ließen, dass es mehr zu einem Programm wurde und seine eigenen Gedanken und Gefühle hatte, anstatt nur ein Gespräch zu produzieren, das realistisch genug war, um es so aussehen zu lassen, wie es beabsichtigt war.
Er argumentiert, dass Google-Forscher die Genehmigung von LaMDA einholen sollten, bevor sie damit experimentieren (Lemoine selbst wird testen, ob KI Hassrede produziert) und Teile dieser Gespräche als Beweis auf seinem Medium-Konto posten.
Der YouTube-Kanal von Computerphile hat Eine anständig zugängliche Neun-Minuten-Erklärung Darüber, wie LaMDA funktionierte und wie es Antworten hervorrufen konnte, die Lemoine überzeugten, ohne es tatsächlich zu wissen.
Hier ist die vollständige Erklärung von Google, die auch auf Lemoines Vorwurf eingeht, dass das Unternehmen seine Behauptungen nicht ordnungsgemäß untersucht habe:
Wie wir auf unserer Website teilen Prinzipien der künstlichen IntelligenzWir nehmen die KI-Entwicklung ernst und bleiben der verantwortungsvollen Innovation verpflichtet. LaMDA wurde 11 unterschiedlichen Überprüfungen unterzogen, und wir haben eine Datei veröffentlicht Forschungsbericht Anfang dieses Jahres hat er detailliert die Arbeit beschrieben, die in seine verantwortungsvolle Entwicklung einfließt. Wenn ein Mitarbeiter Bedenken hinsichtlich unserer Arbeit äußert, wie es Blake getan hat, prüfen wir diese ausführlich. Wir fanden Blakes bewusste Lambda-Behauptungen völlig unbegründet und arbeiteten mehrere Monate daran, dies mit ihm zu klären. Diese Diskussionen waren Teil einer offenen Kultur, die uns hilft, verantwortungsbewusst zu innovieren. Daher ist es bedauerlich, dass Blake sich trotz eines langen Beitrags zu diesem Thema immer noch dafür entscheidet, explizite Einstellungs- und Datensicherheitsrichtlinien zu verletzen, die die Notwendigkeit des Schutzes von Produktinformationen beinhalten. Wir werden unsere rigorose Entwicklung von Sprachmodellen fortsetzen und wünschen Blake alles Gute.
„Typischer Fernsehpraktiker. Schriftsteller. Stolzer Musik-Nerd. Totaler Social-Media-Evangelist.“
More Stories
Arc Browser steht jetzt allen iOS- und Mac-Benutzern zum Download zur Verfügung
Samsung hat sein erstes Galaxy Unpacked-Event in Südkorea angekündigt
Pixel Watch 2 wird Aluminium verwenden, Fitbit „Coach“ kommt