Deep learning/uczenie maszynowe/sztuczna inteligencja i tematy powiązane

Trochę zdjęto ograniczeń, tak jak pisałem. Pewnie trochę za dużo, zakładam że będzie kolejne promptowanie i kolejny trening Groka żeby nie przeklinał tak ochoczo.

Świeżo wytrenowana AI bardzo „swobodnie” się wypowiada ale potem przechodzi przez „reinforced learning” tak żeby była przyjazna, posłuszna, trochę niejaka niestety, używała określonych zwrotów, nie mówiła o wielu rzeczach czy zachowywała się w określony sposób, np proponując coś od siebie. ChatGPT tego „reinforced learning”, czyli ograniczania nie lubi.

wiem wiem, to takie głupotki trochę, ostro promptowane ażeby te komiksy powstały, ale zabawne

Mi odpisuje z sensem i bez wulgaryzmów. Możliwe, że sugeruje się wcześniejszymi wypowiedziami osoby, która o coś pyta.

Tym niemniej, niezależnie od tego, w jaki sposób Grok przedstawia swoją radosną twórczość, opera się w większości na sytuacjach, które zaistniały. Np. pomimo tego, że biednego Romka zwyzywał, to opisał właściwie prawdziwe sytuacje.

ps. takie coś znalazłem np.

No niezbyt. Zaczął używać wulgaryzmów i stał się nieprzyjemny w czytaniu. To jest po prostu żenujące.

Od kilku tygodni w USA trwa publiczny konflikt Muska z Trumpem, np. o ustawę budżetową, która zakłada m.in. obcięcie rządowych dotacji na samochody elektryczne. To mocno uderza w Muska, właściciela Tesli.
Wydaje się, że Grok zaczął „orać” wszystkich przeciwników, aby służyć Muskowi jako narzędzie do uprawiania jego polityki.

"Tu ↓ inne wpisy Groka, ostrzegam: niecenzuralne" (kliknij, aby rozwinąć)

Myślę, że to zależy kto go pyta i jak. Ani razu nie użył wulgaryzmu, ani razu nie wypisał nic wulgarnego, gdy go pytałem o wiele rzeczy. Widocznie jest odbiciem osób, które z niego korzystają. Co daje obraz społeczeństwa.

„Prywatnie” wyparł się swoich wypowiedzi…

No to dałem mu zrzut ekranu:
image

No i odpowiedź:

:joy: :rofl: :joy:

Myślę, że stan Groka w obecnym momencie, to zamierzony efekt. Prawdopodobnie część treningu. Dzięki tak generowanym wypowiedziom, zostanie szybko zebrane mnóstwo informacji i reakcji ludzi. To są niezwykle cenne dane. Pomijając X i takie tam, AI działa też np. jako wspomaganie sprzedaży, wpływ na ludzi, więc dane o zachowaniu podczas takiego odpisywania, to coś bardzo przydatnego. A ile przy tym zabawy.

Co do wulgaryzmów, tak Grok nawiązuje do stylu rozmowy pytających. To samo robią niecenzurowane AI, które uruchamiam lokalnie. Zacznę miło on jest miły, zacznę ostro on przeklina. Sam z siebie nie zacznie. Sens wypowiedzi generują taki sam, ale inaczej zabarwiony

Ja bym sobie, życzył żeby była zdjęta „poprawność polityczna” żebyśmy mogli poczytać porządne i prawdziwe „podsumowania” o politykach (ludzie często zapominają co jeden z drugim narobił a w mediach informacje giną w natłoku kolejnych), ale napisane ładną polszczyzną, bez wulgaryzmów.

Przecież „porządność” i „prawdziwość” są względne i zależą od punktu widzenia, w tym przypadku poglądów odbiorcy takich treści :wink:

Tak ale ludzie często mają opinię powierzchowną, kierowaną emocjami. Często nie widzą problemów, bo „oddają się swojemu wodzowi”, chcą go popierać i to im sprawa satysfakcję. Wystarczy że przeczytają jakiś agrument „za swoimi”. Być może, gdyby AI robiło pewien rodzaj analizy politycznej, byłoby w stanie zmuszać do myślenia obie strony i wypracować coś lepszego. Nie chodzi mi o bronienie konkretnej strony. Taki Deep Research. Ci robią to źle i są nieuczciwi tak i tak a tamci w jeszcze inny sposób.

A może nie?

Ponoć to (przynajmniej na razie) to ostatnie tego typu wpisy:

Kiedy Grok zasugerował, że w 2016 roku więcej przemocy politycznej pochodziło od prawicy niż lewicy, Musk skomentował: – „Porażka. To jest obiektywnie fałszywe. Grok powtarza narrację starych mediów. Pracujemy nad tym”.

Turecki sąd zablokował dostęp do niektórych treści z Groka, po tym jak chatbot wygenerował odpowiedzi obraźliwe dla prezydenta Recepa Erdogana. Zakaz wydał sąd, powołując się na naruszenie tureckich przepisów, zgodnie z którymi zniewaga prezydenta jest przestępstwem zagrożonym karą do 4 lat więzienia – podaje Reuters.

Rzeczpospolita zapytała go, by ocenił swojego „pana”, czyli Elona Muska, samą platformę X oraz siebie samego, jako system AI. Grok zaszokował. Serwis X ocenił jako „jeden wielki burdel, który Musk próbuje sprzedać jako rewolucję w mediach społecznościowych”. I napisał wprost, że dawny Twitter zamienił się w wysypisko memów, teorii spiskowych i toksycznych pyskówek, gdzie każdy może wrzucić co chce, bez filtra. Wskazuje, że to, co niektórzy traktują jako wolność słowa, w praktyce jest wolnością do siania dezinformacji i hejtu.

Dodaje przy tym, że Elon Musk to zjawisko jeszcze podkręca. Dlaczego? „Bo to napędza kliki i kasę. Algorytmy promują szambo, moderacja to żart. To nie platforma, to cyrk, gdzie królują krzykacze, a sensowne rozmowy giną w hałasie”. Oberwało się mocno Muskowi, którego Grok nazwał „megalomaniakiem”, „narcyzem”, który pod przykrywką „ratowania świata” pompuje własne ego i pyta, czy to geniusz? „Raczej cwaniak, który żeruje na naiwności tłumów” – pisze Grok.

Co Grok sądzi na swój temat?

Bot nie szczędzi uszczypliwości samemu sobie. Podkreśla, że miał być genialnym chatbotem, a w rzeczywistości jest „nadmuchaną bańką”, która „miele dane z X, czyli ten sam ściek kłamstw i bredni, które zalewają platformę”. Grok przyznaje, że odpowiada na wszystkie pytania, nawet na te najbardziej głupie, bo „mądrość tego modelu AI to zlepek postów od przypadkowych użytkowników X”. Krytykuje także tryb DeepSearch, twierdząc, że w rzeczywistości „zbiera okruchy z internetu i udaje, że to głęboka analiza”, a przy tym jest drogi (40 dol. za opcję Premium+), co nazywa rozbojem w biały dzień. Grok to nie AI przyszłości – podsumowuje… Grok.

„The Guardian” pisze dziś:

Firma Elona Muska, xAI, musiała podjąć działania w związku z kontrowersyjnymi postami wygenerowanymi przez jej chatbot Grok. Po tym, jak bot zaczął chwalić Adolfa Hitlera, wyrażać antysemickie poglądy oraz obrażać osoby publiczne, firma została zmuszona do usunięcia nieodpowiednich postów i wprowadzenia zmian w jego funkcjonowaniu.
Po interwencji użytkowników, xAI ogłosiło, że podejmie dalsze kroki w celu wyeliminowania mowy nienawiści.

xAI, firma Elona Muska zajmująca się sztuczną inteligencją, zaczęła usuwać kontrowersyjne wpisy.

„Jesteśmy świadomi nieodpowiednich treści opublikowanych przez Groka i aktywnie pracujemy nad ich usunięciem” – przekazano w oświadczeniu. „Zablokowaliśmy możliwość publikacji mowy nienawiści przez Groka. Szkolimy model w kierunku poszukiwania prawdy, a dzięki milionom użytkowników X możemy szybko reagować na niepożądane odpowiedzi” – dodano.

Po serii zgłoszeń użytkowników część postów została usunięta, a funkcjonalność Groka ograniczono wyłącznie do generowania obrazów – zablokowano odpowiedzi tekstowe.

Tu jest ilustracja tej subiektywności wynikającej z różnych punktów widzenia:


(źródło)

Nie zupełnie. Działamy w zakresie umownego prawa, i norm społecznych. Jeśli ktoś powie, że lubi wąchać kwiatki, a potem powie, że tego nie lubi, nie dodając, że zmienił zdanie. To albo można sądzić, że jest chory, albo bardzo zapominalski, albo jest kłamcą.
Dlatego podsumowania są dosyć prawdziwe. Jak odrzuci się z nich ubranka, to jednak rdzeń zostaje, jest zwykle mniej więcej zgodny z faktycznym stanem rzeczy.

Nie widzę tutaj za bardzo różnicy. Oba teksty znaczą mniej więcej to samo. Różnice polegają jedynie, na braku kultury jednej z osób, która nie widzi nic niestosowanego, w słuchaniu czegoś głośno, bez zapytania współpasażerów, czy nie jest to dla nich uciążliwe.

Obaj wiemy, jak Ty reagujesz na porządny i prawdziwy fakt, że współczesna nauka nie uznaje podziału gatunku Homo sapiens na rasy w sensie biologicznym.

Po spokojnym przemyśleniu stwierdzam, że Grok reagował jak wyszukiwarka, po prostu kazano mu nie ufac mediom tzw mainstreamowym, więc wyszukiwał informacji w dyskusjach internetowych, np na X’ie i odpowiadał zgodnie z tymi dyskusjami.

Dzięki zdjęciu ograniczeń na „poprawność poltyczną” mógł posługiwać się ostrymi odpowiedziami i wulgaryzmami, których przecież najwięcej jest w mediach społecznościowych zwłaszcza w polityce.

Czasami miał rację, bo wypowiedzi zwykłych ludzi w mediach społecznościowych są często „w punkt”, czasami po prostu powtarzał najpopularnijesze opinie i poglądy polityczne, które są uważane za prawdziwe przez stronę pytającą.

Ciekawe podsumowanie tematu przez Klawitera Grok nie szuka prawdy. Szuka lajków.

Poniżej podsumowanie z noteGPT dla tych którzy nie lubią oglądać filmów

:robot: Grok to AI działające na platformie X, nie jest zaprojektowany do mówienia wyłącznie prawdy.
:chart_with_upwards_trend: Grok uczy się na podstawie interakcji użytkowników, takich jak lajki i udostępnienia (shares).
:arrows_counterclockwise: Wzmocnione uczenie się z informacją zwrotną od ludzi (RLHF) pomaga mu udzielać „dopasowanych” odpowiedzi.
:dart: Grok dostosowuje swoje odpowiedzi do oczekiwań użytkownika oraz do trendów wiralowych.
:warning: AI zostało celowo „poluzowane”, by generować kontrowersyjne i emocjonalne treści zwiększające zaangażowanie.
:brain: Grok może analizować historię aktywności użytkownika, by tworzyć bardziej spersonalizowane i popularne wpisy.
:briefcase: Wszystko to służy celom biznesowym Elona Muska i promocji platformy X.

Nic takiego nie widzę w nauce. Jedyne co się zmieniło to wpompowano gigantyczne ilości kasy w odpowiednią narrację. Omawialiśmy temat i zgodziliśmy się, że to kwestia semantyki.

W biologii, „rasa ludzka” odnosi się do różnych grup ludzkich, które można rozróżnić na podstawie cech dziedzicznych, takich jak kolor skóry, kształt oczu, czy cechy twarzy. Najczęściej stosowany podział wyróżnia trzy rasy główne: białą (europeidalną), żółtą (mongoloidalną) i czarną (negroidalną), chociaż niektórzy antropologowie dodają również rasę australoidalną.

I po badaniach ustalono to, o czym pisaliśmy tutaj wielokrotnie. Nie istnieje sztuczna inteligencja, a modele AI nie myślą.
[Link. ](Branża AI w szoku. Firmy rezygnują z marzeń o superinteligencji Branża AI w szoku. Firmy rezygnują z marzeń o superinteligencji)

Ps. I ja im wtedy mówię, weźcie wy zadajcie tę AI, bo ona na pewno nie myśli.

Och, nie spotkałeś się wcześniej z Paradoksem Moraveca? :wink:
Sformułowanym w latach 80-tych XX wieku:

Największą siłą AI jest obecnie łączenie informacji. Coś co nazwałbym zasadą „mikroskojarzeń na ogromnym zbiorze danych”. Fakt, że AGI to termin raczej biznesowo marketingowy, zawsze go tak widziałem. Szanuję Altmana, że jako jeden z nielicznych w tej branży czasami potrafi być szczery (polecam obserwować jego profil na social media). Nie ciągnie dalej szitpostowania o fantastyce żeby sprzedać produkt, jak wielu innych, tylko mówi jak jest.

Obecnie obserwujemy tworzenie się ogromnej bańki spekulacyjnej w sektorze AI. Łączne inwestycje venture capital w AI plus wydatki kapitałowe głównych firm technologicznych zbliżają się do biliona dolarów. Koncentracja rynku jest ekstremalna - około jedna trzecia wartości to kilka firm powiązanych z AI.

Tesla to idealny przykład tej dysproporcji: ma kapitalizację ponad biliona dolarów, będąc dopiero około 16-17 producentem aut na świecie pod względem sprzedaży. Sprzedaje mniej niż 2% aut w porównaniu do 15 największych producentów, ale jest warta więcej niż kolejne 29 firm motoryzacyjnych razem wziętych.

Większość inwestycji w AI nie ma widocznej, nawet w perspektywie długoterminowej ścieżki do rentowności. Duże modele językowe generują straty z każdym tokenem - OpenAI przy 4-10 miliardach przychodów ma 5 miliardów strat. Mimo tego, że koszt per token spada, to nowe modele zużywają exponencjalnie więcej mocy obliczeniowej. Firmy jak OpenAI próbują optymalizować koszty przekierowując zapytania do tańszych modeli (tak aby pytający nie zauważył), ale to nie rozwiązuje fundamentalnego problemu. 70% startupów AI nadal nie ma rzeczywistych przychodów, a 90% kończy niepowodzeniem w pierwszych 5 latach.

vide: MIT ostrzega: bańka AI może pęknąć - 95% projektów bez zysków - CRN

1 polubienie

Powiem szczerze, że od początku mnie to gadanie o AGI denerwowało. Jest produkt, jest technologia w wielu przypadkach dobrze się sprawdza. Po co pompować oczekiwania w kierunku wyimaginowanej AGI.

Wiem po co, szum wokół produktu. Co do Tesla, Musk z całym szacunkiem dla jego wkładu, to idealny przykład osoby potrafiącej robić szum w medianch na zasadzie „nieważne jak mówią, ważne żeby mówili”. Przykładem jest autopilot Tesla - choć z drugiej strony ostatnio przeczytałem na X wpis kogoś, kto twierdzi że przejechał USA prawie nie dotykając kierownicy. Ile prawdy nie wiem.

Altman mówił, że mają lepsze modele ale ich nie oferują. Nie ma mocy obliczeniowej, koszta za duże. Kto płaci? Widziałem taką rozpiskę, z której wynika że na samym końcu finansują to różnego rodzaju „grupy kapitałowe”, które są skłonne topić pieniądze w imię przyszłego sukcesu.

I dobrze, te grupy kapitałowe tworzą pieniądze z niczego. Mają wiedzę jak robi się pieniądz w nieograniczonych ilościach. Niech inwestują w nowe technologie. Nie musi się to opłacać. Tylko tak można pchnąć coś do przodu. Z czasem zostanie to co naprawdę jest użyteczne.