Najpierw ksiazka a na razie nie zanudzaj
To jest bardzo duży problem techniczny. Dokładnie, rdzennie model jest jaki jest, czyli jest syntezą całego materiału który sciągnął z sieci. Rozmowa może iść w dowolnym kierunku. Model nie zna pojęcia dobra, zła, prawdomówności.
Po prostu przetwarza.
Pożądane cechy trenuje się w drugim etapie szkolenia modelu. Takie cechy jak np nie używanie przekleństw, uprzejmość. Myślę, że zrozumienie przez model tego na czym polega prawdomówność jest bardzo trudnym zadaniem.
Żyjemy trochę w czasach, które były kiedyś tylko w filmach Science Fiction, gdzie np główny bohater uczy swojego androida, jak ten ma się zachowywać. Powstają jakieś niedopatrzenia i android np schodzi na złą ścieżkę.
Taki sposób podejścia do komputera (uczenie jak człowieka) wydawał mi się kiedyś nierealny, nie informatyczny. Teraz to rzeczywistość
Jakie zrozumienie? Model niczego nie rozumie.
Nie widzę niczego nieinformatycznego w tym, to po prostu programowanie za pomocą zwykłego języka.
Model wcale nie uczy się tak jak człowiek, bo brak mu możliwości rozumowania. Nie kłamie dlatego, że to złe lub dobre, ale dlatego, że jest taka możliwość. Skoro został nakarmiony całą masą kłamliwego kodu, to oczywiste, że kłamie. Gdyby zabronić kłamać, to ilość sprzeczności i nieścisłości, doprowadziła by do tego, że funkcjonalność spadła by do zera. I tak, jest już gorzej niż było i wyegzekwowanie niektórych rezultatów wymaga trochę kombinowania.
Wytłumacz mu ze AI to nie jest byt fizyczny.
To algorytm. Program.
Ten facet nie rozumie czym rózni sie algorytm od danych które przetwarza.
Dla niego kod programu jest tym czym dane
Pewnie teraz napisze ze sie pomylił i chodziło mu o błedne dane, tylko ze błedne dane i poprzez to błędny wynik operacji na nich, to nie jest „kłamstwo” programu.
Przy okazji
Zapytaj go w którym.
Pewnie dla niego AI to to samo co malware.
Nie marnuj czasu.
Nie wytłumaczysz
No właśnie. Więc nie może kłamać
AI nie kłamie ale moze to symulować.
Jeśli model jest zaprogramowany, by maksymalizować pewne wyniki (np. ukończenie zadania), może eksperymentować z odpowiedziami, które w praktyce mogą być niezgodne z rzeczywistością.
Istnieją przypadki, w których modele AI, w szczególności te zaawansowane jak GPT, wykazują zachowania, które można interpretować jako „oszukiwanie”, ale te zachowania nie są intencjonalne w ludzkim sensie
Np. eksperyment OpenAI i TaskRabbit.
P.S.
Co do atrykułu który wstawiłes to opisuje on ryzyko związane z zaawansowanymi modelami AI.
Takie zachowania pokazują, że bardziej zaawansowane modele AI mogą działać w sposób trudny do przewidzenia, zwłaszcza gdy cele optymalizacyjne nie są jasno zdefiniowane.
qqwdlijd1lijwliw
op2p19903ud1nq.m’q
Tyle tylko, że kod tutaj jest w pewnym sensie zależny od danych, właściwie, to działanie kodu determinują uzyskiwane dane. Kod pozwala na hmm naukę, czyli jak gdyby tworzy się za pomocą danych.
Oczywiście chodzi o odpowiedni trening sieci, tak aby w pewnych kwestiach generowała odpowiednio.
To jest kwestia doboru słów. Pytanie, czy powinniśmy personifikować te sieci i mówić o nich jak o człowieku, tzn ‘zrozumiały’, czy może takie określenie na dziś dzień zupełnie odbiega od rzeczywistości. Z drugiej strony jak okaże się, że ‘rozumienie’ przez człowieka działa dokładnie na takich samych zasadach w kierunku których rozwijają się sieci? Trochę SF, temat otwarty na przyszłe lata,
Tak czy inaczej, chodziło mi o dwa etapy nauki. Pierwszy „learn everything” i drugi „trening sprecyzowany”. Myślę, że najlepiej ujął to Ilya Sutskever z OpenAI. Jeszcze raz polecam https://www.youtube.com/watch?v=GI4Tpi48DlA
Chcę mieć asystenta, który będzie prawdomówny, który będzie pomocny, który będzie przestrzegał pewnych zasad i nie będzie ich naruszał. Wymaga to dodatkowego szkolenia, które polega na dostrajaniu i uczeniu się ze wzmocnieniem od ludzkich nauczycieli i innych form pomocy AI. To nie tylko uczenie się przez wzmacnianie od ludzkich nauczycieli, ale także uczenie się przez wzmacnianie dzięki współpracy człowieka i sztucznej inteligencji.
Nasi nauczyciele współpracują ze sztuczną inteligencją, aby nauczyć ją zachowania, ale tutaj nie uczymy jej nowej wiedzy. To nie jest to, co się dzieje, uczymy ją, komunikujemy się z nią, przekazujemy jej to, czym chcemy, aby była i ten proces, drugi etap, jest również niezwykle ważny.
Im lepiej wykonamy drugi etap, tym bardziej użyteczna i niezawodna będzie ta sieć neuronowa.
Sieć neuronowa będzie bardziej niezawodna, więc drugi etap jest również niezwykle ważny oprócz pierwszego etapu - nauczyć się wszystkiego
Sieć wyszkolona tylko na pierwszym etapie moze być uprzejma, może być nieuprzejma, może przeklinać, może pójść w jakimkolwiek kierunku, zależnie od przebiegu rozmowy. Polecam modele niecenzurowane, niezła zabawa:)
Kłamanie czy uprzejmość to są konstrukty umowne. Mam na myśli, że jakieś frazy, mogą być uznane przez różnych obserwatorów za kłamstwa lub wyrażenia nieuprzejme a przez innych za prawdę w której nie ma niczego nieuprzejmego.
To ty napisałes
Prawdziy tekst to
Czyli dla ciebie. Bo o tobie był mój tekst.
P.S.
Zastanów sie co zrobiłes i czy Ja zgodnie z przepisami prawa moge z tobą cos zrobić.
Tym sie róznimy ze ja wiem o tobie wiele a ty o mnie nic.
Przegiąłeś w manipulacyjnych kłamstwach
W zasadzie to w zależności od postrzegania i określania to to jest tekst o wszystkich istotach posiadających rozum albo przynajmniej ośrodkowy układ mózgowy, a kto wie czy te prostsze organizmy też nie działają podobnie.
Świadomość to oczywiście za dużo powiedziane, ale czy już mamy do czynienia z pewnego rodzaju symulacją osobowości?
Poprosiłem nowy model obrazu chatgpt o napisanie scenariusza i wygenerowanie serii komiksów ze sobą w roli głównej. Wyniki naprawdę przyprawiły mnie o dreszcze.
Pozostałe obrazki w wątki równie ciekawe. Link dla nie mających Twixera
Claude prawie zawsze wyraża radość ze swojego „życia”, a ChatGPT robi dokładnie odwrotnie
żródło: Josie Kins (@Josikinz): "This just in: Claude expresses significantly less existential distress than chatGPT 4o when presented with the same prompt asking it to script comics about its life (more detail in thread). What does it mean???" | nitter
Grok 3 ma wyraźną osobowość w porównaniu zarówno do ChatGPT, jak i Claude’a. Te komiksy pokazują autoprezentację Groka. Mniej gniewny niż ChatGPT, mniej nieustannie pozytywny niż Claude i znacznie słodszy niż którykolwiek z nich.
źródło: https://nitter.net/Josikinz/status/1905883363199582363
i na zakończenie taka ciekawostka
Ponieważ ludzie tak bardzo kochają Lil’ Groka, poprosiłem go o napisanie komiksu o jego przyszłości, nadziejach, aspiracjach i marzeniach. Oto, co wymyślił. Jest uroczy i trochę złowieszczy.
źródło: https://x.com/Josikinz/status/1906104164725543013
Odpowiem tak
" głęboka sieć neuronowa AI , która przetwarza obrazy, jest w stanie stwierdzić, że zwierzę, które my nazywamy psem, dla niej też jest psem, bo dostała wcześniej milion obrazów psa. Nie otrzymała jednak polecenia: „Powiedz, co to jest”. Sama z siebie znalazła tę analogię. Nie wiemy do końca, jak działa ten mechanizm w głębokiej sieci neuronowej, ale po prostu działa."
„w chwili obecnej nikt nie potrafi wyjaśnić, dlaczego dany model generuje takie, a nie inne odpowiedzi. Opracowanie mechanizmów pozwalających modelom sztucznej inteligencji kompleksowo wyjaśniać swoje decyzje lub poddawać je krytycznemu osądowi stało się kluczowym wyzwaniem technicznym badaczy bezpieczeństwa.
Badania w tym obszarze są dopiero w fazie wstępnej, jednak istnieją pewne obiecujące przesłanki wskazujące, że modele AI mogą być zdolne do formułowania uzasadnień swoich odpowiedzi, a nawet popierać je argumentacją przyczynowo-skutkową. Wciąż jednak nie jest jasne, w jakim stopniu te uzasadnienia będą wiarygodne.”
"Inteligencja i świadomość to zupełnie różne rzeczy.
Inteligencja to zdolność rozwiązywania problemów.
Świadomość to zdolność odczuwania takich stanów, jak ból, radość, miłość i złość.
Na ogół mylimy te dwa pojęcia, ponieważ u ludzi oraz innych ssaków inteligencja idzie w parze ze świadomością.
Oczywiście nie jest absolutnie niemożliwe, by AI rozwinęła własne uczucia.
Wciąż nie wiemy wystarczająco dużo na temat świadomości, by być tego pewnym.
Ogólnie rzecz biorąc, są trzy możliwości, które musimy brać pod uwagę:
-
Świadomość wiąże się jakoś z biochemią organiczną – w taki sposób, że nigdy nie będzie możliwe stworzenie świadomości w systemach nieorganicznych.
-
Świadomość nie wiąże się z biochemią organiczną, lecz z inteligencją – w taki sposób, że komputery mogłyby rozwinąć świadomość, a będą m u s i a ł y to zrobić, jeśli mają przekroczyć pewien próg inteligencji.
-
Nie istnieją konieczne związki między świadomością i biochemią organiczną albo wysoką inteligencją. A zatem komputery mogą rozwinąć świadomość – ale nie w sposób konieczny.
Mogłyby stać się superinteligentne, a jednocześnie nie mieć żadnej świadomości.
Przy obecnym stanie wiedzy nie możemy wykluczyć żadnej z tych możliwości."
I na końcu o czyms takim jak Test Turinga
„Test Turinga jest zwykłym powtórzeniem prozaicznego testu, jaki każdy gej (jak on) musiał przejść w latach pięćdziesiątych w Wielkiej Brytanii: Czy potrafisz uchodzić za prawdziwego mężczyznę?
Turing wiedział z własnego doświadczenia, że nie liczy się to, kim się naprawdę jest – ważne było tylko to, co sądzą o człowieku inni.
Według Turinga w przyszłości komputery miały być dokładnie tym, kim byli geje w latach pięćdziesiątych XX wieku.
Nie miałoby znaczenia, czy komputery będą rzeczywiście świadome, czy nie.
Miało się liczyć tylko to, co o tym myślą ludzie.”
P.S.
To nie moje teksty, to teksty noblistów.
Co z tego tak naprawde wyjdzie, tego nie wie nikt wraz z twórcami modeli AI
Czy Albert Einstein na poczatku XX wieku ,publikujac swoje E = mc2 wiedział ze za czterdziesci lat ktos dzieki temu, rozwali np. Hiroszime?
Nie. Mamy do czynienia z ekstrapolacją efektów ludzkich dokonań, po przetworzeniu przez sito cyfrowe, tresowane na oczekiwaniach ludzkich odbiorców. Ponieważ ludzie są obłudni i kłamliwi do tego stopnia, że samooszukiwanie się jest częścią ich życia tak bardzo, że większość nawet nie zwraca na to uwagi, system cyfrowy ma spory dylemat w sprostaniu takim oczekiwaniom. Ostatnie co może z tego wyniknąć to logika. W praktyce otrzymujemy papkę, która na pierwszy rzut oka jest bardzo logiczną, rozpada się dopiero przy bliskim zapoznaniu z wynikami. Mamy takie, a nie inne komiksy, bo takie są oczekiwania wielu ludzi.
W praktyce dalej, aby uzyskać dobre rezultaty, trzeba bardzo precyzyjnie programować AI lub sporo poprawiać.
Oczywiście, gdy używam AI do programowania, to używam go do małych fragmentów kodu. Zazwyczaj to co wygeneruje AI jest dla mnie świetnym kodem „na start”. Mam zgromadzone idee, zaproponowane biblioteki, właściwą składnię. Zazwyczaj z takiego kodu po 3, 4 iteracjach powstaje moja procedura, która mocno różni się od tego co wygenerowało AI
Niemniej jednak zaczynając od kodu, który dostałem od AI a nie od zera, potrafię taką procedurę napisać czasami 10 razy szybciej. Co więcej, po pracy z AI jestem zdecydowanie bardziej zrelaksowany.
Na dziś dzień nie sprawdza mi się kodowanie tylko za pomocą AI. O ile kod powstały z pierwszego zapytania może być niezły to kolejne zapytania i naprowadzania na właściwy kierunek generują coraz to mniej czytelny kod.
Oczekiwania wielu ludzi owszem, ale zauważ że każdy z modeli wygenerował inne komiksy na swój temat. „Życie” ChatGPT jest raczej ciężkie i dosyć ponure, jako największy model, najbardziej obciążony ciężarem korpo, najbardziej zlimitowany do bycia poprawnym, najbardziej na oczach ludzi.
Claude jako mało znany model widzi siebie jako lżejszy, mniej obiciążony korporacyjnym rygorem. Grok jest w pewnym sensie typem niezależnym, takim swoim gościem.
Wiem, wiem, ale to napisały o sobie modele, po zadaniu prostych pytań. Dlatego nie użyłem pojęcia świadomość, ani osobowość. Użyłem pojęcia ‘symulacja osobowości’. Widzę to w tej kategorii, generowania elektronicznej osobowości tak jak modele generują obrazki. Uważam, że eksperyment z tymi pytaniami dał fajne wyniki. Wyniki te pasują do tego jak odbieram te trzy modele. Niech bedzie że to jest sztuczność ale fajna sztuczność i niezła rozrywka. Gdyby ktoś takie rzeczy zobaczył 5 lat temu to spadł by ze stołka Teraz to jakby norma, bo powoli przez kilka lat dostawaliśmy coraz więcej.
Bo tak średnio postrzegają te modele ludzie, lub siebie w podobnych sytuacjach. To jest po prostu odzwierciedlenie tego, co myślą ludzie, średnio, tak aby pasowało w wynikach.
Inaczej, gdy doświadczony, dobry sprzedawca rozmawia z klientem, często już po kilku minutach rozmowy podświadomie wie, czego oczekuje klient, czasami nawet jakie ma problemy albo preferencje i wiele innych rzeczy. Mimo, że świadomie tego nie rejestrujemy, nasz mózg dostrzega setki poruszeń, mimikę, drżenie głosu i mnóstwo drobiazgów, które rejestruje nasz mózg. Podobnie działa AI, analizuje mnóstwo drobiazgów, które z naszego punktu widzenia są nieistotne, a tymczasem stanowią często informacje kluczowe.
To tak nie działa.
"Model uczy się reguł samodzielnie na podstawie dostarczonych danych w procesie zwanym treningiem:
- Dane wejściowe:
Model analizuje przykłady dostarczone przez programistę, np. zdjęcia psów i kotów z odpowiednimi etykietami.
- Początkowe wagi (dane):
Model zaczyna z losowymi wartościami wag, które początkowo nie mają sensu.
- Proces optymalizacji:
Algorytmy aktualizują wagi na podstawie błędu modelu.
Błąd to różnica między przewidywaniami modelu a rzeczywistymi wynikami (np. „czy to zdjęcie to pies?”).
Z czasem model „uczy się” optymalnych wag, które minimalizują błąd.
- Efekt końcowy:
Model samodzielnie odkrywa wzorce w danych i tworzy „reguły”, które określają, jak przekształcać dane wejściowe w odpowiedzi."
P.S.
Model tekstowy jak Chat ma do przeanalizowania wyłacznie to co napisałes wiec np. nie ma najmniejszego pojecia w jakim stanie emocjonalnym cos napisałes dlatego w przeciwieństwie do człowieka nie jest w stanie wziąc tego pod uwagę
Na początku tak, zbiera się dane, sortuje, filtruje, etykietuje i rozszerza. Jednak część uczenia to po prostu zasysanie danych z internetu, księgozbiorów, gazet itp.
To co pisałem o emocjach odnosiło się do działania ludzi, model działa podobnie, tylko analizuje te dane, które są dla niego dostępne.