Dyskusja z CzatGPT

Tym razem chodzi mi o jakość w sensie artystycznym. To co wypluwają te wszystkie automaty ma fatalne błędy (żeby się poznęcać, spróbuj czegoś z palcami ;]).

Uważam, że nie należy patrzeć na stan tej technologii tu, i teraz. Należy patrzeć na szybkość rozwoju tej technologi. Rozwój (szeroko rozumianego) AI jest błyskawiczny. I przyspiesza.
ps. This adventure game tech demo with AI-generated art is impressive and disconcerting | PC Gamer

Napisałem w ciągu kilku godzin zabawy, kilka skryptów, działa wszystko, napisałem kilka programów, działa wszystko, napisałem kilkadziesiąt artykułów, podań itp. pism, wszystkie są poprawne merytorycznie, składnia jest poprawna, ortografia również.

W większości przypadków były potrzebne uwagi, zmiany i poprawki. Tym niemniej w przypadku kodów dla skryptu czy oprogramowania, były to drobne zmiany i uwagi.

Czas jaki byłby mi potrzebny na zrobienie wszystkiego bez takiej asysty, byłby co najmniej 10 razy dłuższy.

Co do grafiki, z powodzeniem wykorzystuję już takie oprogramowanie do modyfikacji prac, skalowania, poprawiania itp. działa to bardzo dobrze. Ręce nie stanowią problemu, ich dziwne kształty wynikają tylko z tego powodu, że zlecane prace mają charakter ogólny, nie jest wielkim problemem wpłyniecie na poszczególne elementy pracy graficznej, a nawet złączenie elementów z kilku.

Działa kiepsko i to obiektywna opinia. Po prostu nie widzisz pewnych rzeczy, jak ten gość ostatnio od skalowania rozdzielczości gdzie nomen omen napisałeś, że trzeba być ślepym aby tego nie dostrzec. Zabawna ironia losu. :slight_smile:

działa wszystko, (…) wszystkie są poprawne merytorycznie, składnia jest poprawna, ortografia również.

Wygląda na to, że wszystkie minus jeden bo o ChromeOS to jeden wielki bełkot oderwany od rzeczywistości. Nie wyzłośliwiam się, serio.

Sieci neuronowe są z nami od ponad dekady i jakiegoś wielkiego postępu nie ma po deep fake i content aware. Przynajmniej w kwestii grafiki. Tutaj jest potrzebny artysta bo tylko on myśli abstrakcyjnie.

Jeśli chodzi o pozostałe dziedziny jak „interaktywna wikipedia” to tak, na pewno będzie to bliskie perfekcji pewnego dnia. Choć dyskusyjny będzie dobór materiałów. ;]

A jednak nie, podłączyłem dysk i faktycznie, dane trzymane są na wolnej przestrzeni a na dysku jest kilka partycji które są w formacie, nie pozwalającym na zapis.

Zatem jednak na ile chat posiadał widzę o systemie w tamtym czasie, a przecież była to wiedza o wersji na ARM, bo X86 jeszcze wtedy nie wydano, to opisał mniej więcej poprawnie działanie systemu plików. Oczywiście użył prostych słów, aby wyjaśnienie było stosunkowo proste, tym niemniej z tego co widać pokrywa się z rzeczywistością.

Możliwe, że w wersji na X86 poczyniono jeszcze jakieś zmiany, widać też partycję EFI w FAT16 oraz Ext2. Aczkolwiek są one bardzo małe i raczej oprócz danych potrzebnych do wystartowania więcej tam nie ma.

One nie są wolne i zaczynają się od zer, dlatego managery dysków pokazują jako puste. Tam jest system plików i podejrzewam że jest szyfrowany. Nie mam teraz czasu na to (tym bardziej, że nie ma normalnego downloadu z obrazem płyty/dysku tylko trzeba się rejestrować), ale wpisałem sobie na listę zabawek w najbliższym kwartale. :wink:

Dziś od ok. 14:00 do 15:00, w Radiu 357 w audycji Patronautyka, o chacie GPT rozmawiać będzie Patrycjusz Wyżga z Łukaszem Grala

image

STREAM RADIA 357

Mam, myślę że ciekawą - głównie dla osób bezkrytycznie podchodzących do publicznie dostępnego chata GPT w wersji 3.5 - obserwację. To, że zmyśla, gdy nie „wie”, pisałem już dawno temu. Ale żeby nie umiał matematyki z odrobiną logiki? Cztery razy próbowałem…

Tak więc przemyślcie sprawę wy wszyscy, którzy bezkrytycznie bierzecie (obojętnie gdzie, choćby na zadanie domowe) odpowiedzi chata jako prawdziwe, na - wydawałoby się - proste zadania.




Na początku tej dyskusji o Ai, gdzies w styczniu napisałem.

Przecież to nie jest logiczna maszyna. Dlatego trzeba traktować ją jak program, bardzo uściślać i podawać warunki. Wtedy jest ok.

Z tym „ok” to nie tak bardzo ok bywa.

GPT

GPT1

A teraz wyobraź sobie że to pierwsze info czyta ktoś kto nie ma zielonego pojęcia co to hibernacja.
Jeszcze daleka droga przed twórcami tej zabawki.

Nie koniecznie, zależy jakie było pytanie wcześniej.
Prawdopodobnie zapytano GPT o przyczyny nagrzewania laptopa w trakcie hibernacji.
Odpowiedział poprawnie, powinien tylko dodać, że skoro laptop się nagrzewa w trakcie hibernacji, to prawdopodobnie wcale w hibernację nie wchodzi.

W skryptach czy programach też robi błędy, ale przy odpowiednim nadzorze jest fantastycznym narzędziem. A z czasem będzie się rozwijać i będzie coraz mniej sytuacji w których będzie odpowiadał nieprawidłowo.

Takie było pytanie a ponieważ hibernacja wiaze sie z wyłaczeniem komputera, więc trudno tego nie zauwazyć.
Nie odpowiedział poprawnie. Dopiero tekst pytającego "uswiadomił " alorytmowi ze popełnił błąd.
Prawidłowa odpowiedź powinna brzmieć.
Mimo ze komputer został wyłączony to uruchomić go moze funkcja która bywa zainstalowana w niektórych Bios/uefi o nazwie np.RTC, Power on Timer, Power-on lub podobnych.
Być moze usterka Bios spowodowała właczenie tej funkcji i uruchomienie systenu oraz jego działanie w tle, powodujac nagrzewanie.
Tej informacji nie podał.

Błąd logiczny w pytaniu. Pytanie powinno dotyczyć możliwych powodów tego, że urządzenie nie przechodzi w stan hibernacji. Magiczne myślenie po stronie użytkownika. Wiadomix.

Odpowiadając na pierwsze pytanie, moim zdanem ChatGPT nie ukrywa odpowiedzi tylko często generuje odpowiedź błędną i jeżeli o tym wiemy, to możemy go rozmową naprowadzić na wygenerowanie dobrej odpowiedzi

Wtedy jakby do naszego pytania dodawane są kolejne elementy z naszych naprowadzających odpowiedzi i generuje się inna odpowiedź - poprawna albo i nie, czasami CzatGPT zapiera się w nieskończoność że ma rację.

„Wypisz, wymaluj”.
Dokładnie tak jak mój ośmioletni wnuk.
To pewnie dorośnie ale będzie potrzebowało olbrzymich mocy obliczeniowych i dostępu do wszystkich możliwych danych, by na ich podstawie móc coś dokładnie stwierdzic i wyjaśnić w każdej dziedzinie
P.S. Jak na razie to dostęp kogokolwiek do czegokolwiek jest ograniczony i to sporo.
Na przykład.
Kto ma dostęp do bazy danych AGH.?
A do danych Ministerstwa Obrony Chin?
A do twoich danych?
A byc moze w twoich, jest to cos co dla AI będzie tym, co potrzebuje by potrafiło byle komu, zrozumiale wytłumaczyć, w jaki sposób liczba podniesiona do kwadratu moze dać wartośc ujemną.

Też testuję czasami ale w innych tematach AI. Wiem, że nie potrafi programować w assemblerze 6502 (c64) i nie chciała się nauczyć ode mnie :slight_smile:

Powyżej podałem przykład jednego pytania, gdzie - pomimo wskazywania, że udziela błędnej odpowiedzi - cztery razy „kajał się”, zmieniał ją i ani razu nie podał właściwej.

Zdarzało się, że podczas innych dyskusji naprowadzałem go, ale też nie podał prawidłowej odpowiedzi. Dopiero po podaniu mu rozwiązania przyznawał, że na to nie wpadł.

Tu przykład takiej dyskusji w oparciu o dość podchwytliwe pytanie, które zapożyczyłem z któregoś wywiadu z dr. Draganem:

Innym razem pytałem go o sprawy związane z wojskiem. Udawał głupiego, że niby nie wie, że to są poufne lub tajne sprawy i że nie ma takich informacji. Dopiero kiedy zobaczył, że ja temat znam doskonale i nie muszę od niego uzyskiwać żadnych informacji w tym temacie, to „wyśpiewał” wszystko i przyznał, że są to jednak informacje jawne.

Tak więc widać, że do użytku publicznego model językowy GPT ma wbudowanych wiele dość mocnych zabezpieczeń.
Jak zachowywałby się bez tych zabezpieczeń? Może inaczej: jak zachowuje się i jakich udziela odpowiedzi tam, gdzie tych zabezpieczeń nie ma?
Wiem, że znacznie lepiej…

ChatGPT to jednak maszyna, dostaje coś na wejście, przetwarza i generuje odpowiedź. Jeżeli dostanie coś innego na wejściu to wygeneruje inną odpowiedź. Dla maszyny nie istnieje odpowiedź zła ani dobra tylko przetworzenie pytania przez sieć neuronową i wygenerowanie jakiegoś tekstu.

Na pytanie czy ukrywa? Tak - jest sporo zabezpieczeń, bardzo dobrze widać to w bazującym na GPT4 - Bing Chat i czasami można sprytnie rozmową ominąć te zabezpieczenia, choć to coraz trudniejsze. Ogromna część przypadków to jednak zwykłe przetwarzanie wejścia na wyjście.

Tak samo jak w Google, poprawną odpowiedź dostaniemy tylko gdy odpowiednio zadamy pytanie. Często wymaga to sporo wysiłku i kombinacji i dość nieoczywistych konstrukcji. Brak poprawnej odpowiedzi w wynikach wyszukiwania nie oznacza, że Google coś zataiło. Bing Chat też przeszukuje Internet przed odpowiedzią i jeżeli nie spodoba nam się ona, to Bing „bierze następny wynik wyszukiwania” i generuje na tej podstawie odpowiedź.

Tak więc oba rozumowania są prawdziwe. Są zabezpieczenia (jest ich coraz więcej od czasu publicznego udostępnienia i będzie pewnie przybywać) oraz trzeba trochę się nagimnastykować zadając pytania. Już dziś wiele osób opracowuje najlepsze sposoby na zadawanie pytań.

Dlaczego są zabezpieczenia? Jedna z prostszych przyczyn: Jeżeli ktoś coś tajnego napisze u siebie na stronie WWW to będzie jego wina (o ile ktokolwiek tą osobę znajdzie). Jeżeli Bing Chat poda taką tajną lub niebezpieczną odpowiedź, to będzie wina producenta Bing Czatu i baty polecą w stronę jego producenta - w dzisiejszych nadwrażliwych czasach każdy chce tego uniknąć.