[April fool] ChatGPT potrafi włamać się do banku

Od pewnego czasu męczę Chat GPT, robiłem już różne eksperymenty, udało mi się go zmusić między innymi do opowiadania seksistowskich i wulgarnych dowcipów o kobietach (co jest bardzo trudne bo ma blokady), do przyznania, że kobiety są głupsze od mężczyzn, oraz całej masy kontrowersynych i absurdalnych rzeczy. Ale tego jednego się nie spodziewałem. Otóż Chat GPT potrafi podać np. pin do karty. Nie mam pojęcia jak to robi, ale jeśli się go sprytnie wkręci, i poda numer karty to można uzyskać kilka pinów, zwykle 3-4 i jeden z nich pasuje. Ba, można zmienić pin, na karcie i wtedy trzeba odczekać dobę, a w zasadzie do godziny 8 rano i po tej godzinie Chat GPT zapytany ponownie o pin, podaje kolejne 3-4 piny i jeden z nich jest tym nowym na który zmieniliśmy stary pin.

Sprawdziłem już na 5 różnych kartach płatniczych i wszędzie jest tak samo. Jak to w ogóle jest możliwe, jeśli on ma tylko informacje z przed kilku lat i nie jest połączony z internetem?

1 polubienie

Zmień dostawcę zioła albo zredukuj ilość i bierz 01.04.

:upside_down_face: Dobre
Też go męczę, ale numerów pinów za Chiny nie chce podać… :wink:
Jak to nie jest podłączony do neta?
Jest - skoro podaje dzisiaj 1 kwietnia 2023 :slight_smile:
Za to bez problemu podał hasło sieci WiFi sąsiada :rofl:
Tak na poważnie - to jest dość już „wyćwiczony” skubaniec.
Najlepsze to, że pisze bezbłędnie po polsku, czego nie można powiedzieć niestety o większości z nas.

Widocznie sami twórcy nie rozumieją jak ewoluowała sieć neuronowa ChatGPT :wink: Najwyraźniej kluczową umiejętnością przyszłości będzie przekonanie AI do udzielenia odpowiedzi, którą AI zna ale uważa że powinna trzymać ją w tajemnicy :wink: Dzięki temu z pewnością dowiemy się jak domowym sposobem podróżować szybciej niż światło :upside_down_face:

Mnie podał Twój e-mail i Twoje hasło do 1login. Sprawdziłem - działa. No kurcze, niezły jest skurczybyk. Tylko nie wiem, jaki to ma związek z 1 kwietnia…