- Alicia Hernandez por_puesto
- BBC News World
Maszyna myśląca i czująca.
W ten sposób Blake Lemoine, inżynier Google, odniósł się do LaMDA, systemu sztucznej inteligencji Google. Szybko się rozprzestrzenił. Czytamy to wszędzie.
Ale, jak is Ta maszyna?
Nawiązując do starych filmów science fiction, możesz sobie wyobrazić LaMDA jako plik Humanoidalny robot, który otwiera oczy, postrzega i mówi. Lub jak HAL-9000, superkomputer 2001 lot kosmiczny I że w The Simpsons, jako parodia, ma głos Pierce’a Brosnana, kocha Marge i chce zabić Homera.
Prawda jest bardziej skomplikowana: lambda też jest Sztuczny mózg, utrzymywany w chmurze, żywiący się bilionami tekstów podczas treningu.
Ale jednocześnie wygląda jak papuga.
Złożony? Spróbujmy to rozbić, aby lepiej to zrozumieć.
super mózg
LaMDA (Model językowy dla aplikacji dialogowych, Model językowy dla hiszpańskich aplikacji dialogowych) Zaprojektowany przez Google w 2017 roku oparta jest na adapterczyli głęboka sztuczna sieć neuronowa.
Ta sieć neuronowa Ćwicz z mnóstwem tekstów. Ale uczenie się odbywa się przez obiektywność i jest przedstawiane jako gra. Zawiera całe zdanie, ale ty bierzesz słowo, a system musi je odgadnąć” – wyjaśnia Julio Gonzalo Arroyo, profesor UNED (National University of Distance Education) w Hiszpanii i główny badacz w Departamencie Przetwarzania Języka Naturalnego i Pozyskiwania Informacji Językowych .
Bawić się ze sobą. System układa słowa metodą prób i błędów, a gdy się pomyli, jakby była książeczką dla dzieci, przegląda ostatnie strony, widzi poprawną odpowiedź, a tym samym poprawia parametry, dostosowuje.
Jednocześnie „określa znaczenie każdego słowa i Zwróć uwagę na słowa wokół niej– mówi Gonzalo Arroyo.
W ten sposób staje się specjalistą od przewidywania wzorów i słów. Podobnie jak przewidywanie tekstu w telefonie komórkowym, tutaj jest ono rozszerzone tylko do dziewiątego stopnia, z dużo większą pamięcią.
Jakościowe, konkretne i uważne odpowiedzi
Ale LaMDA tworzy również płynne reakcje, nie duszące i, według Google, zdolność do odtwarzania dynamiki i rozpoznawania niuansów ludzkiej rozmowy. W skrócie: Nie wygląda na mechanizm.
Ta płynność jest jednym z celów Google, jak wyjaśniono na ich blogu technicznym. Mówią, że to rozumieją, a oni to zauważają Odpowiedzi są jakościowe, są konkretne i są użyteczne.
Aby mieć jakość, musi mieć sens. Na przykład, jeśli powiesz LaMDA Zacząłem grać na gitarze„Muszę coś na ten temat odpowiedzieć, a nie jakieś bzdury.
Aby osiągnąć drugi cel, nie powinien odpowiadać „w porządku”, ale raczej odpowiedzieć czymś bardziej konkretnym, np. „Który rodzaj gitary wolisz bardziej, Gibson czy Fender?”.
A żeby system dostarczał odpowiedzi, które wykazują zainteresowanie, wnikliwe, przechodzi na wyższy poziom, taki jak: „Fender Stratocaster to dobra gitara, ale Red Special Briana Maya jest wyjątkowy”.
Po co udzielać odpowiedzi z takim poziomem szczegółowości? Jak powiedzieliśmy, ona sama się szkoli. „Po przeczytaniu miliardów słów ma niezwykłą zdolność odgadywania najbardziej odpowiednich słów w każdym kontekście”.
Dla ekspertów w dziedzinie sztucznej inteligencji adaptery takie jak LaMDA były kamieniem milowym, ponieważ „pozwalały na bardzo wydajne przetwarzanie (informacji i tekstu) i spowodowały prawdziwą rewolucję w dziedzinie przetwarzania języka naturalnego”.
Bezpieczeństwo i stronniczość
Kolejnym celem szkolenia LaMDA, według Google, jest: Nie tworzy „brutalnych lub krwawych treści ani nie promuje oszczerczych lub nienawistnych stereotypów”. wobec grup ludzi lub zawierają wulgaryzmy”, zgodnie z ich blogiem Sztucznej Inteligencji (AI).
Wymagane jest również, aby odpowiedzi były oparte na faktach i aby istniały znane źródła zewnętrzne.
„Dzięki LaMDA liczymy Wyrachowane i skrupulatne podejście do uwzględniania uzasadnionych obaw o uczciwość i uczciwośćmówi Brian Gabriel, rzecznik Google.
Twierdzi, że system przeszedł 11 oddzielnych przeglądów zasad sztucznej inteligencji „wraz z rygorystycznymi badaniami i testami opartymi na kluczowych wskaźnikach jakości, bezpieczeństwa i zdolności systemu do generowania danych opartych na faktach”.
Jak sprawić, by system taki jak LaMDA był wolny od uprzedzeń i mowy nienawiści?
„The Kluczem jest określenie, które dane (z dowolnymi źródłami tekstu) są zasilane” – mówi Gonzalo.
Ale nie jest to łatwe: „Nasz sposób komunikowania się odzwierciedla nasze uprzedzenia, a zatem maszyny się tego uczą. Trudno jest usunąć je z danych treningowych bez usuwania ich reprezentacji”, wyjaśnia.
on jest nazywany, Mogąn On się pojawia uprzedzenia.
„Jeżeli przekażesz mu wieści o królowej Letycji (Hiszpania) i w każdym z nich skomentujesz stroje, które nosi, możliwe, że gdy o nią zapytamy, powtórzy ten męski styl i będzie opowiadać o ciuchach, a nie o inne rzeczy”, mówi ekspert.
Papuga, która śpiewa tango
W 1966 roku zaprojektowano system ELIZA, w którym zastosowano bardzo proste wzorce symulujące dialog psychoterapeuty. „Reżim zachęcał pacjenta, aby powiedział mu więcej, bez względu na temat rozmowy, i wywoływał tego rodzaju wzorce:„ Jeśli wspomina słowo rodzina, zapytaj go, jaki jest jego stosunek do matki ”- mówi Gonzalo.
Są ludzie, którzy wierzyli, że Elisa naprawdę była psychoterapeutką: twierdzili nawet, że im pomogła.
„The Stosunkowo łatwo oszukać ludzi’”, twierdzi Gonzalo, który uważa twierdzenie Lemoine’a, że LaMDA stało się samoświadome, za „przesadę”.
Zdaniem profesora Gonzalo takie wypowiedzi jak Lemoine nie sprzyjają zdrowej dyskusji na temat sztucznej inteligencji.
„Słuchanie tego rodzaju bzdur (bzdury) nie jest dobre. Ryzykujemy, że ludzie popadną w obsesję i pomyślą, że jesteśmy w trybie matrix, a maszyny są mądrzejsze i nas zabiją. To daleko, to moja wyobraźnia. Nie sądzę, aby łagodna rozmowa na temat korzyści płynących ze sztucznej inteligencji nie była pomocna. ”
Bo chociaż rozmowa jest płynna, jakościowa i konkretna, „to nic innego jak gigantyczna formuła, która modyfikuje parametry, aby lepiej przewidzieć następne słowo. Nie masz pojęcia, o czym mówisz”.
Odpowiedź Google jest podobna. „Te systemy symulują rodzaje wymiany zdań, które są zawarte w milionach zdań i mogą być powiązane z dowolnym fascynującym tematem: jeśli zapytasz ich, jak to jest, gdy jest to zamrożony dinozaur, mogą tworzyć teksty o topnieniu i ryczeniu itp., – mówi Gabriel. od Google.
Badacze Emily Bender czy Timnit Gebru określili te systemy tworzenia języka jako „przypadkowe papugi”które są powtarzane losowo.
Tak więc, jak powiedzieli badacze Ariel Gersenweig i Ramon Sanguisa: transformatory Podobnie jak LaMDA rozumieją to, co piszą, tak samo jak papuga, która śpiewa tango Dzień, w którym mnie kochasz.
Możesz teraz otrzymywać powiadomienia z BBC World. Pobierz i aktywuj nową wersję naszej aplikacji, aby nie przegapić naszych najlepszych treści.
„Miłośnik kawy. Rozrabiaka. Nieuleczalny introwertyk. Subtelnie czarujący badacz twitterów. Wielokrotnie nagradzany mediaholik społecznościowy. Miłośnik internetu”.
More Stories
Chiny wzywają Stany Zjednoczone do porzucenia doktryny Monroe i poszanowania suwerenności Ameryki Łacińskiej, w tym Meksyku
Peruwiańska Carolina Herrera wygrywa batalię prawną o swoje nazwisko z projektantką Carolina Herrera
Włożył pizzę do kuchenki mikrofalowej, włączył się alarm przeciwpożarowy i teraz musi płacić strażakom