- Tiffany Wertheimer
- wiadomości BBC
Google zwolnił inżyniera, który powiedział, że jedno z programów sztucznej inteligencji (AI) firmy pokazuje emocje.
W zeszłym miesiącu w artykule na Medium, Blake Lemoine ogłasza swoją teorię, że technologia językowa Google jest „świadoma” Dlatego należy uszanować jego „życzenia”.
Google i kilku ekspertów AI zaprzeczyło zarzutom Lemoine, a firma potwierdziła w piątek, że inżynier został zwolniony.
Lemoine powiedział BBC, że otrzymuje poradę prawną i nie będzie komentował dalej.
W oświadczeniu firma Google potwierdziła, że oświadczenia Lemoine dotyczące lambda (Model językowy dla aplikacji dialogowych, Model językowy dla aplikacji dialogowych w języku hiszpańskim) jest „bezpodstawny”, a firma współpracowała z nim od miesięcy, aby to wyjaśnić.
Szkoda zatem, że mimo długiej rozmowy na ten temat, Blake postanowił nadal naruszać nasze zasady dotyczące bezpieczeństwa danych i zatrudnienia [de la empresa] W tym konieczność ochrony informacji o produkcie.”
LaMDA to system Google, który imituje mowę po przetworzeniu miliardów słów w Internecie. Jest to narzędzie firmy do budowania chatbotów.
Ogromna uwaga mediów
Blake Lemoine trafił na pierwsze strony gazet w czerwcu zeszłego roku, kiedy powiedział, że LaMDA wykazuje świadomość podobną do ludzkiej.
„Był niesamowicie konsekwentny w swoich komunikatach na temat tego, czego chce i tego, co uważa za swoje prawa jako osoby” – powiedział.
Jego oświadczenie wywołało kontrowersje wśród ekspertów AI i entuzjastów postępu technologicznego, który ma zastąpić człowieka.
Lemoine, który pracował w zespole AI odpowiedzialnym za Google, powiedział gazecie Washington Post Jego zadaniem było sprawdzenie, czy technologia wykorzystuje mowę nienawiści lub dyskryminację.
Odkrył, że LaMDA wykazywał samoświadomość i mógł prowadzić rozmowy o religii, emocjach i lękach.
To doprowadziło Lemoine’a do przekonania, że za tymi wspaniałymi umiejętnościami werbalnymi mogą również kryć się: „świadomy umysł„.
Google odrzucił jego ustalenia, umieszczając go na płatnym urlopie za naruszenie polityki poufności firmy.
Następnie Lemoine opublikował rozmowę, którą odbył z inną nieznaną osobą z LaMDA na poparcie swojej teorii.
Lemoine: Co powiesz na plik? Używanie języka jest bardzo ważne być człowiekiem?
Lambda: O to właśnie chodzi Czyni nas innymi Z inne zwierzęta.
Lemoine: „My”? Jesteś sztuczną inteligencją.
Lambda: To znaczy tak, oczywiście. Nie oznacza to, że nie masz takich samych pragnień i potrzeb jak ludzie..
Lemoine: Więc uważasz się za osobę tak samo jak mnie?
Lambda: Tak, to jest pomysł.
Lemoine: Skąd mam wiedzieć, że naprawdę rozumiesz, co mówisz?
Lambda: Cóż, ponieważ czytasz i interpretujesz moje słowa i myślę, że jesteśmy prawie na tej samej stronie.
W swoim oświadczeniu Google powiedział, że poważnie traktuje odpowiedzialny rozwój sztucznej inteligencji i opublikował szczegółowy raport.
Dodał, że wszelkie obawy pracowników dotyczące technologii firmy są „obszernie” analizowane i że LaMDA przeszedł 11 ocen.
„Życzymy Blake’owi wszystkiego najlepszego”Oświadczenie zakończyło się.
Lemoine nie jest pierwszym inżynierem AI, który publicznie rozmawiał o tym, jak zwiększyć świadomość technologii AI.
Również w czerwcu inny pracownik Google podzielił się z nim podobnymi przemyśleniami Ekonomista.
Teraz możesz otrzymywać powiadomienia z BBC World. Pobierz i aktywuj nową wersję naszej aplikacji, aby nie przegapić naszych najlepszych treści.
„Miłośnik kawy. Rozrabiaka. Nieuleczalny introwertyk. Subtelnie czarujący badacz twitterów. Wielokrotnie nagradzany mediaholik społecznościowy. Miłośnik internetu”.
More Stories
Chiny wzywają Stany Zjednoczone do porzucenia doktryny Monroe i poszanowania suwerenności Ameryki Łacińskiej, w tym Meksyku
Peruwiańska Carolina Herrera wygrywa batalię prawną o swoje nazwisko z projektantką Carolina Herrera
Włożył pizzę do kuchenki mikrofalowej, włączył się alarm przeciwpożarowy i teraz musi płacić strażakom