4 października, 2024

OCHRONA24

Polska Najnowsze wiadomości, zdjęcia, filmy i reportaże specjalne ochrony. Polska Blogi, komentarze i wiadomości archiwalne na …

List otwarty ekspertów OpenAI ostrzega przed „poważnymi zagrożeniami” i wzywa do ochrony sygnalistów

List otwarty ekspertów OpenAI ostrzega przed „poważnymi zagrożeniami” i wzywa do ochrony sygnalistów

(CNN) — Zespół doradców OpenAI wzywa firmy zajmujące się sztuczną inteligencją do większej przejrzystości w odniesieniu do „poważnych zagrożeń” związanych ze sztuczną inteligencją oraz do ochrony pracowników, którzy zgłaszają wątpliwości dotyczące opracowywanej przez siebie technologii.

„Firmy zajmujące się sztuczną inteligencją mają silne zachęty finansowe, aby unikać skutecznego nadzoru” – czytamy w oświadczeniu. List otwarty Został opublikowany we wtorek, a podpisali się pod nim obecni i byli pracownicy firm zajmujących się sztuczną inteligencją, w tym OpenAI, twórca popularnego narzędzia ChatGPT.

Wezwali także firmy zajmujące się sztuczną inteligencją do promowania „otwartej kultury krytyki”, która z zadowoleniem przyjmuje osoby zgłaszające wątpliwości, a nie je karze, zwłaszcza że prawo stara się dotrzymać kroku szybkiemu postępowi technologicznemu.

Firmy przyznały, że „poważne ryzyko” stwarzane przez sztuczną inteligencję – od manipulacji po utratę kontroli, zwane „osobliwością, która może doprowadzić do wyginięcia ludzkości”, muszą jednak zrobić więcej, aby edukować społeczeństwo na temat zagrożeń. Zagrożenia i środki ochronne – napisała grupa.

Zgodnie z prawem pracownicy AI oświadczyli, że nie wierzą, że firmy AI dobrowolnie udostępniają podstawowe informacje o technologii.

Dlatego istotne jest, aby obecni i byli pracownicy zabierali głos, a firmy nie egzekwowały „oszczerczych” porozumień ani nie podejmowały działań odwetowych wobec osób wyrażających obawy dotyczące ryzyka. „Normalna ochrona sygnalistów jest niewystarczająca, ponieważ skupia się na nielegalnych działaniach, podczas gdy wiele zagrożeń, które nas niepokoją, pozostaje nieuregulowanych” – napisała grupa.

List otwarty ekspertów OpenAI ostrzega przed „poważnymi zagrożeniami” i wzywa do ochrony sygnalistów

Obecni i byli pracownicy OpenAI mówią o tym, że firma i inne podobne firmy powinny zachować większą przejrzystość w zakresie rozwijanej technologii. Źródło: Didem Mente/Anadolu/Getty Images

Ich przesłanie pojawia się w momencie, gdy firmy spieszą się z wdrażaniem narzędzi generatywnej sztucznej inteligencji do swoich produktów, podczas gdy rządowe organy regulacyjne, firmy i konsumenci walczą o odpowiedzialne korzystanie z nich. Jednocześnie o to apelowało wielu ekspertów w dziedzinie technologii, badaczy i liderów pauza W wyścigu o sztuczną inteligencję, czyli o interwencję rządu i nałożenie moratorium.

READ  Jaki owoc poprawia popęd seksualny, pomaga walczyć ze starzeniem się i chroni serce?

Odpowiedź OpenAI

W odpowiedzi na list rzecznik OpenAI powiedział CNN, że „jest dumna z naszych osiągnięć w dostarczaniu najbardziej wydajnych i bezpiecznych systemów sztucznej inteligencji oraz wierzy w nasze naukowe podejście do rozwiązywania zagrożeń”, dodając, że firma zgadza się, że „dokładna debata ma kluczowe znaczenie” .” Biorąc pod uwagę znaczenie tej technologii.”

OpenAI zauważyło, że ma plik prosta linia Od Anonimowej Komisji ds. Integralności i Bezpieczeństwa, na której czele stoi Zarząd i liderzy ds. bezpieczeństwa w firmie. Firma nie sprzedaje danych osobowych, nie tworzy profili użytkowników ani nie wykorzystuje tych danych do targetowania kogokolwiek lub sprzedawania czegokolwiek.

Jednak Daniel Ziegler, jeden z organizatorów listu i starszy inżynier uczenia maszynowego, który pracował w OpenAI w latach 2018–2021, powiedział CNN, że ważne jest, aby zachować sceptycyzm co do zaangażowania firmy w przejrzystość.

Dodał: „Naprawdę trudno jest stwierdzić z zewnątrz, jak poważnie traktują swoje zobowiązania na rzecz zwiększania bezpieczeństwa i identyfikowania szkód społecznych, zwłaszcza że istnieje silna presja komercyjna, aby działać tak szybko”. „To naprawdę ważne, aby mieć odpowiednią kulturę i procesy, aby pracownicy mogli wyrazić swoje wątpliwości, gdy mają wątpliwości”.

Ma nadzieję, że w wyniku tego listu więcej specjalistów z branży sztucznej inteligencji wyrazi swoje obawy.

Tymczasem oczekuje się, że Apple ogłosi partnerstwo z OpenAI podczas corocznej konferencji Worldwide Developers Conference, aby wprowadzić generatywną sztuczną inteligencję na iPhone’a.

„Postrzegamy sztuczną inteligencję produktową jako kluczową szansę we wszystkich naszych produktach i wierzymy, że mamy w tym wyraźną przewagę” – powiedział dyrektor generalny Apple Tim Cook podczas ostatniej telekonferencji firmy dotyczącej wyników finansowych, która odbyła się na początku maja.