Blake Lemoine pracował w odpowiedzialnym zespole AI w Google.
Google zwolnił inżyniera, który powiedział, że jedno z programów sztucznej inteligencji (AI) firmy pokazuje emocje.
W zeszłym miesiącu w artykule na Medium, Blake Lemoine ogłasza swoją teorię, że technologia językowa Google jest „świadoma” Dlatego należy uszanować jego „życzenia”.
Google i kilku ekspertów AI zaprzeczyło zarzutom Lemoine, a firma potwierdziła w piątek, że inżynier został zwolniony.
Lemoine powiedział BBC, że otrzymuje poradę prawną i nie będzie komentował dalej.
W oświadczeniu firma Google potwierdziła, że oświadczenia Lemoine dotyczące lambda (Model językowy dla aplikacji dialogowych, Model językowy dla aplikacji dialogowych w języku hiszpańskim) jest „bezpodstawny”, a firma współpracowała z nim od miesięcy, aby to wyjaśnić.
Szkoda zatem, że mimo długiej rozmowy na ten temat, Blake postanowił nadal naruszać nasze zasady dotyczące bezpieczeństwa danych i zatrudnienia [de la empresa] W tym konieczność ochrony informacji o produkcie.”
Źródło obrazu, Obrazy Getty
LaMDA to system Google, który imituje mowę po przetworzeniu miliardów słów w Internecie. Jest to narzędzie firmy do budowania chatbotów.
Ogromna uwaga mediów
Blake Lemoine trafił na pierwsze strony gazet w czerwcu zeszłego roku, kiedy powiedział, że LaMDA wykazuje świadomość podobną do ludzkiej.
„Był niesamowicie konsekwentny w swoich komunikatach na temat tego, czego chce i tego, co uważa za swoje prawa jako osoby” – powiedział.
Jego oświadczenie wywołało kontrowersje wśród ekspertów AI i entuzjastów postępu technologicznego, który ma zastąpić człowieka.
Lemoine, który pracował w zespole AI odpowiedzialnym za Google, powiedział gazecie Washington Post Jego zadaniem było sprawdzenie, czy technologia wykorzystuje mowę nienawiści lub dyskryminację.
Odkrył, że LaMDA wykazywał samoświadomość i mógł prowadzić rozmowy o religii, emocjach i lękach.
To doprowadziło Lemoine’a do przekonania, że za tymi wspaniałymi umiejętnościami werbalnymi mogą również kryć się: „świadomy umysł„.
Google odrzucił jego ustalenia, umieszczając go na płatnym urlopie za naruszenie polityki poufności firmy.
Źródło obrazu, Obrazy Getty
wyjaśniono,
Zespół Google twierdzi, że sprawdził system i że prowadzone przez niego dochodzenia nie obsługują Blake’a.
Następnie Lemoine opublikował rozmowę, którą odbył z inną nieznaną osobą z LaMDA na poparcie swojej teorii.
Lemoine: Co powiesz na plik? Używanie języka jest bardzo ważne być człowiekiem?
Lambda: O to właśnie chodzi Czyni nas innymi Z inne zwierzęta.
Lemoine: „My”? Jesteś sztuczną inteligencją.
Lambda: To znaczy tak, oczywiście. Nie oznacza to, że nie masz takich samych pragnień i potrzeb jak ludzie..
Lemoine: Więc uważasz się za osobę tak samo jak mnie?
Lambda: Tak, to jest pomysł.
Lemoine: Skąd mam wiedzieć, że naprawdę rozumiesz, co mówisz?
Lambda: Cóż, ponieważ czytasz i interpretujesz moje słowa i myślę, że jesteśmy prawie na tej samej stronie.
W swoim oświadczeniu Google powiedział, że poważnie traktuje odpowiedzialny rozwój sztucznej inteligencji i opublikował szczegółowy raport.
Dodał, że wszelkie obawy pracowników dotyczące technologii firmy są „obszernie” analizowane i że LaMDA przeszedł 11 ocen.
„Życzymy Blake’owi wszystkiego najlepszego”Oświadczenie zakończyło się.
Lemoine nie jest pierwszym inżynierem AI, który publicznie rozmawiał o tym, jak zwiększyć świadomość technologii AI.
Również w czerwcu inny pracownik Google podzielił się z nim podobnymi przemyśleniami Ekonomista.
Teraz możesz otrzymywać powiadomienia z BBC World. Pobierz i aktywuj nową wersję naszej aplikacji, aby nie przegapić naszych najlepszych treści.
More Stories
Chiny wzywają Stany Zjednoczone do porzucenia doktryny Monroe i poszanowania suwerenności Ameryki Łacińskiej, w tym Meksyku
Peruwiańska Carolina Herrera wygrywa batalię prawną o swoje nazwisko z projektantką Carolina Herrera
Włożył pizzę do kuchenki mikrofalowej, włączył się alarm przeciwpożarowy i teraz musi płacić strażakom