
17 sty Dlaczego zaawansowana sztuczna inteligencja sprawia, że oszustwa są coraz trudniejsze do wykrycia
Wzrost treści generowanych przez sztuczną inteligencję w ostatnich miesiącach wywołał gorącą debatę na temat etyki i prywatności zarówno wśród krytyków, jak i zwolenników. Jedno narzędzie AI, ChatGPT, wyróżnia się jako szczególnie groźny pretendent do nagrody „najprawdopodobniej używanej do złych celów”.
ChatGPT jest publiczny dopiero od nieco ponad miesiąca. W tym czasie eksperci przewidzieli szeroki wachlarz ponurych scenariuszy, począwszy od narzędzia prowadzącego do gwałtownego wzrostu niewykrywalnego plagiatu, po profilowanie rasowe i rozpowszechnianie dezinformacji. MakeUseOf dodaje kolejny zabawny projekt do tej listy: przekonujące oszustwo.
Jak każde narzędzie do uczenia maszynowego, ChatGPT korzysta z praktycznie niezliczonych źródeł internetowych, aby tworzyć swoje treści. Ponieważ ChatGPT działa w ten sposób, jest więcej niż zdolny do tworzenia czytelnych, przekonujących, a nawet atrakcyjnych tekstów.
Nie trzeba być geniuszem, aby zdać sobie sprawę, że ta kopia może być wykorzystywana do oszukiwania ludzi skuteczniej niż kiedykolwiek — zwłaszcza że, jak wskazuje MakeUseOf, najczęstszym środkiem odstraszającym próby oszustwa jest szukanie błędów ortograficznych lub gramatycznych w obraźliwym wiadomość do wyszukania. ChatGPT jest wystarczająco zaawansowany, aby uniknąć tych błędów i zamiast tego tworzyć doskonale rozsądne wiadomości do niczego niepodejrzewających odbiorców.
Innym rażącym problemem, jaki ChatGPT przedstawia na froncie oszustw, jest jego elastyczność w tworzeniu różnych odpowiedzi. Ponieważ ChatGPT zawsze zwraca inną — choć niewielką — odpowiedź na monit, każdy, kto używa go do nikczemnych celów, może tworzyć różne unikalne wiadomości bez dodatkowego wysiłku. Jest to problem z dwóch powodów, z których najbardziej zauważalną jest niezdolność Google do wykrywania i oznaczania niepowtarzających się wiadomości jako oszustwa.
Innym problemem jest to, że sami użytkownicy prawdopodobnie nie dostrzegą podobieństw między oszukańczymi wiadomościami generowanymi przez sztuczną inteligencję, co czyni je jeszcze bardziej skutecznymi. Praktycznie każdy, kto ma adres e-mail, otrzymał jakąś odmianę oszustwa oferującego przelanie nieprzyzwoitej kwoty pieniędzy od umierającego krewnego (lub niespodziewanej rodziny królewskiej itp.); Prawdopodobieństwo powtórzenia tej dobrze znanej formuły przez ChatGPT jest bliskie zeru.
Regulacje dotyczące wykorzystania sztucznej inteligencji do treści są nadal stosunkowo rzadkie. ChatGPT może równie dobrze wywołać nową falę legislacji w nadchodzących miesiącach, ale trudno sobie wyobrazić, jak narzędzie AI, które pisze tak przekonująco, mogłoby być filtrowane z taką samą skutecznością, jak obecne filtry spamu.
No Comments