23 listopada, 2024

OCHRONA24

Polska Najnowsze wiadomości, zdjęcia, filmy i reportaże specjalne ochrony. Polska Blogi, komentarze i wiadomości archiwalne na …

W ten sposób cyberprzestępcy wykorzystują ChatGPT do swoich ataków

W ten sposób cyberprzestępcy wykorzystują ChatGPT do swoich ataków

Wygląda na to że ChatGPT już tu zostanie. Ostatni wielki przełom w sztucznej inteligencji to przełom przede wszystkim w postaci chatbotów. Te narzędzia, które są w stanie automatycznie generować tekst, mają wiele zastosowań i niemal nieograniczone możliwości. Niestety, jest to również znane cyberprzestępcom, którzy chcą przesuwać granice możliwości czatu GPT.

ChatGPT jest używany przez cyberprzestępców

Kilka dni temu martwię się o Niebezpieczeństwo, jakie może stwarzać rozwój chatbotów opartych na sztucznej inteligencji. Elon Musk wraz z grupą ekspertów AI i dyrektorów branżowych ogłasza sześciomiesięczną przerwę w opracowywaniu systemów potężniejszych niż niedawno wydany GPT-4 OpenAI.

Sortuj listę Zrobił ankietę Do 550 osób w 6 krajach, które przeczytały ten list, aby poznać swoją opinię na jego temat i sprawdzić, czy wpływa on na ich opinię publiczną na temat sztucznej inteligencji. Oto niektóre z wyciągniętych wniosków:

  • 1 na 4 osoby ma bardziej pozytywną opinię o AI po przeczytaniu listu otwartego.
  • 66% osób Zainteresowany tempem i kierunkiem rozwoju sztucznej inteligencji I zatrzymaj wsparcie opisane w komunikacie.
  • Kobiety preferują ten „przestój” nieco bardziej – 68%, w porównaniu do mężczyzn – 63%.
  • Tak uważa 69% osób Ostatnie postępy w dziedzinie sztucznej inteligencji są negatywne lub neutralne dla społeczeństwa.
  • 42% więcej zagłosowałoby za rządem, który wprowadził moratorium na rozwój sztucznej inteligencji i surowe regulacje.

On Narodowy Instytut Cyberbezpieczeństwalepiej znany jako INCIBE, ten problem nie jest obcy w społeczności, a ze swojej własnej domeny już stoi w obliczu szeregu zastosowań ze strony cyberprzestępców, które tylko go podsycają.

Istnieje kilka zagrożeń bezpieczeństwa, które mogą wystąpić podczas korzystania z chatbotów AI. Na przykład, jeśli atakujący jest w stanie zhakować chatbota, to może Uzyskaj dostęp do poufnych informacji firmy lub jej klientów. Ponadto, jeśli chatbot jest w stanie przetwarzać płatności, atakujący może go wykorzystać do przeprowadzenia oszukańczych transakcji. Agencja zaleca firmom wdrożenie odpowiednich środków bezpieczeństwa, takich jak szyfrowanie danych i uwierzytelnianie użytkowników, w celu ochrony przed tymi zagrożeniami.

READ  BBVA: Dlaczego znikają oddziały tego banku?

Kolejnym ryzykiem wymienianym przez INCIBE jest ryzyko Prywatność danych. Ponieważ chatboty oparte na sztucznej inteligencji mogą gromadzić i przetwarzać duże ilości danych osobowych klientów, firmy muszą uważać, aby przestrzegać przepisów i regulacji dotyczących prywatności danych, takich jak ogólne rozporządzenie Unii Europejskiej o ochronie danych (RODO). Zachęca się firmy do starannej oceny dostawców chatbotów i wdrażania odpowiednich środków ochrony danych, takich jak anonimizacja danych i uzyskanie zgody użytkownika przed zebraniem danych osobowych.

Ponieważ chatboty są w stanie generować niezależne odpowiedzi, ważne jest, aby firmy jasno wyjaśniały użytkownikom, że wchodzą w interakcję z chatbotem, a nie z człowiekiem. Jest to szczególnie ważne w przypadku drażliwych kwestii, takich jak zdrowie czy finanse.

Wykorzystuje programowanie chatgpt

Inne nieuczciwe zastosowania mogą generować fałszywe wiadomości; Ponieważ ChatGPT jest w stanie nie tylko generować skrypty, może również tworzyć kod w różnych językach programowania. W ten sposób cyberprzestępcy mogą to zrobić Użyj go do tworzenia złośliwego oprogramowania Lub nawet tworzenie wiadomości phishingowych, w których udaje im się uczynić wiadomość bardziej wiarygodną i istnieje większa szansa, że ​​ofiara „połknie przynętę”.

Jak uniknąć niektórych z tych zagrożeń?

Najważniejsze jest, aby przyjąć go w ChatGPT innym niż Podstawowe zasady, których należy przestrzegać również w zakresie cyberbezpieczeństwa W innych obszarach Internetu, takich jak brak dostępu do podejrzanych lub niezaufanych łączy lub posiadanie silnych haseł i regularne ich aktualizowanie. Hasła nie powinny być udostępniane za pośrednictwem tego medium.

Ponadto INCIBE zaleca, aby firmy zapewniały użytkownikom możliwość rozmowy z człowiekiem w dowolnym momencie interakcji z chatbotem.