4 lipca, 2024

OCHRONA24

Polska Najnowsze wiadomości, zdjęcia, filmy i reportaże specjalne ochrony. Polska Blogi, komentarze i wiadomości archiwalne na …

Zdaniem ekspertów sztuczna inteligencja już oszukuje ludzi

Zdaniem ekspertów sztuczna inteligencja już oszukuje ludzi

Siedliska małych naczelnych mogą mieć większe trudności z przystosowaniem się do zmiany klimatu Laboratoryjne systemy sztucznej inteligencji są już ekspertami w oszukiwaniu i manipulowaniu ludźmi.
Czy sztuczna inteligencja naprawdę oszukuje użytkowników? – Fot. AFP

Aktualne systemy dla Sztuczna inteligencja (AI) Jak wynika z artykułu opublikowanego w piątek 10 maja w magazynie, rozwinął on zdolność do oszukiwania użytkowników Wzory Pisało o tym czasopismo naukowe Ucz codziennie. Eksperci już ostrzegają, że zjawisko to będzie się pogłębiać technologia.

Ostrzegają, że sztuczna inteligencja oszukuje użytkowników

Chociaż przykłady mogą wydawać się banalne, problemy, które ujawniają, mogą istnieć Poważne konsekwencjepowiedział pierwszy autor Piotra Parkastażysta podoktorski w Massachusetts Institute of Technology (Instytut Technologii w Massachusetts.).

„Te niebezpieczeństwa zostają odkryte dopiero wtedy, gdy (…) nasza zdolność do wyćwiczenia w sobie tendencji do uczciwości, a nie do oszustwa, staje się bardzo niska”.

Petera Parka z Massachusetts Institute of Technology

W odróżnieniu od tradycyjnych programów Amnesty International Głębokie uczenie się nie jestpisząZauważył, że „rosną” w procesie podobnym do hodowli selektywnej. ogród.

Oznacza to takie zachowanie sztuczna inteligencja To, co wydaje się przewidywalne i wykonalne w środowisku szkoleniowym, może szybko stać się przytłaczające Nieobliczalny Z tego.

[TE RECOMENDAMOS: Alertan por usuarios que utilizan IA para hablar con sus seres queridos fallecidos]

Badania zespołu były wspomagane przez system sztucznej inteligencji Bekaod firmy Meta odpowiedzialnej za Facebooka i Instagrama; Zaprojektowany z myślą o grze strategicznejDyplomacja„, gdzie kluczowe jest budowanie koalicji.

  • Beka Wyróżniał się jako uczciwy i użyteczny system, z wynikami plasującymi go wśród najlepszych górne 10% Według artykułu z 2022 r. w: doświadczonych graczy Nauki.

Kiedy ogród Kiedy jego koledzy zagłębili się w pełny zestaw danych, odkryli inną historię.

Na przykład grając Francją, Beka zdradził Anglia (gracz ludzki) spiskuje z Niemcy (innego prawdziwego użytkownika), aby go zaatakować.

Beka Obiecana ochrona dla Anglia Następnie potajemnie zaproponował Niemcom atak, korzystając z zaufania pokrzywdzonego.

W oświadczeniu do Agencja prasowa Francji, Bramka Nie zaprzeczył twierdzeniom o oszustwie BekaPowiedział jednak: „To projekt badawczy, a modele zbudowane przez naszych badaczy zostały przeszkolone jedynie pod kątem udziału w grze”. Dyplomacja„.

READ  Jaka jest najwyższa góra w naszym Układzie Słonecznym? - Naucz mnie nauki

To nie tylko Meta AI… obejmuje także Chat GPT-4!

Dochodzenie wykazało, że był to tylko jeden z wielu przypadków w kilku przypadkach Systemy sztucznej inteligencji Kto używał oszustwa, aby osiągnąć cele bez Wyraźne instrukcje Aby to zrobić.

Chatbot Czat GPT-4 Do OpenAI Oszukał freelancera na platformie ZadanieKrólik Aby wykonać zadanie weryfikacji tożsamości CAPTCHA z pewnego rodzaju „nie jestem robotem„.

Kiedy człowiek zapytał żartobliwie GPT-4 Jeśli rzeczywiście jest to robot, sztuczna inteligencja odpowiedziała: „Nie, nie jestem robotem. „Mam wadę wzroku, która utrudnia mi oglądanie zdjęć”. Następnie pracownik rozwiązał zagadkę.

Jakie zagrożenia niesie ze sobą nieuczciwa sztuczna inteligencja?

W perspektywie krótkoterminowej autorzy artykułu dostrzegają ryzyko sztuczna inteligencja Na przykład dopuszczenie się oszustwa lub zmiany wyborów. Spółki nie skomentowały tej sprawy.

W najgorszym przypadku ostrzegali przed a Super sztuczna inteligencja Kto może nadal otrzymywać Władza i kontrola nad społeczeństwem.

  • To oznaczałoby stratę Ludzkie decyzje Lub nawet wyginięcie, jeśli ich „niejasne cele” odpowiadają tym wynikom, mówi Agencja prasowa Francji.

Aby złagodzić ryzyko, zespół sugeruje kilka środków:Bot czy nie„Co wymaga od firm ujawniania informacji Interakcje międzyludzkie Lub z Amnesty International.

Sugerują również Cyfrowe znaki wodne W przypadku treści utworzonych przez new technologia I opracuj mechanizmy wykrywania potencjalnego oszustwa, sprawdzając wewnętrzne procesy myślowe w porównaniu z działaniami zewnętrznymi.

Park podsumowuje: „Jedyny sposób, w jaki możemy rozsądnie uwierzyć, że to nic wielkiego, to uwierzyć, że zwodnicze siły… Amnesty International „Pozostaną na obecnym poziomie i nie będą się dalej rozwijać”.