Deep learning/uczenie maszynowe/sztuczna inteligencja i tematy powiązane

Oczywiście, nie ma sensu się kłócić. :smiley:

i tu masz rację hehe

Do samoreplikowania się droga bardzo daleka, ale można powiedzieć że są juz pierwsze AI posiadajace swego rodzaju ciało https://twitter.com/Tesla_Optimus/status/1658576897490530305 i uczące się funkcjonować w świecie fizycznym

Autorami są inżynierowie AI z MIT, Max Planck Institute i Google’a.

DragGAN już jest bardzo fajne a na pewno będzie się rozwijać. Można sobie wyobrazić jak będzie działać w przyszłości. W sumie przypomniała mi się taka scenka ze starego filmu z Arnoldem „The Running Man (1987)”. Czyżby mieli Deep Fake, wycinanie tła AI i DragGAN? :slight_smile: https://www.cda.pl/video/1360257515 → scena w 1:18:45

Tymczasem AI już niedługo zostanie zintegrowana z systemem operacyjnym.


AI inpaint, czyli uzupełnianie zaznaczonej części obrazka zgodnie z wpisanym tekstem. Można testować za darmo, całkiem ciekawie to działa aczkolwiek, żeby coś fajnego uzyskać, to trzeba się trochę naprodukować

Z tego co kojarzę Adobe szyci się tym, że uczy AI na bazie swoich własnych zasobów nie „kradnąc” obrazków z Internetu.


Streszczanie artykułów w wykonaniu BingChat

Tutaj coś znacznie mniej spektakularnego :rofl:

Ludzie nie rozumieją w jak bardzo testowej fazie są takie technologie. Tak samo z systemami w samochodach, np autopilocie Tesli. Z drugiej strony ciężko winić ludzi, gdy marketing (mając na uwadze tylko sprzedaż) przedstawia te technologie jako w pełni ukończone i w pełni funkcjonalne.

Straszenie Skynetem wchodzi na nowy poziom :wink: Na konferencji RAeS Future Combat Air & Space Capabilities Summit podczas jednej z prezentacji, półkownik USAF opowiedział o testach autonomicznego drona opartego o algorytmy, przeznaczonego do zasań SEAD (Suppression of Enemy Air Defenses → zwalczania systemów obrony obszaru powietrznego przeciwnika). Algorytm oparty był o coś co przypomina mi grywalizację, dron zbierał punkty za zniszczenie obiektu SAM (wyrzutnia rakiet p-lotniczych).

Kiedy operator drona wyznaczył strefy no-go (w których dronowi nie wolno latać), oprogramowanie uznało, że skoro w tej strefie są SAM-y do zniszczenia to aby dostać za nie punkty, trzeba zneutralizować operatora i dron zaatakował operatora. Kiedy poprawiono algorytm i dodano punkty za nieatakowanie operatora, dron w takiej samej sytuacji zaatakował masz komunikacyjny z którego korzystał operator. Testy były symulowane rzecz jasna.

źródło (ten fragment który zaczyna się od „AI – is Skynet here already?”):

Ciekawe, ciekawe. Pewnie będzie trzeba wprowadzić ‘twarde’ zasady nie bazujące na sztucznej inteligencji, tylko na zwykłych znanych z programowania warunkach „jeżeli, to”.

Tak jak to ma miejsce w przypadku CzatGPT/Bing. Jeszcze jakiś czas temu można było go skłonić do napisania głupot/rzeczy niebezpiecznych. Teraz dodali jakieś sprawdzanie, które natychmiast usuwa tekst, już po jego wygenerowaniu, gdy ten tekst jest niewłaściwy.

Czat wciąż moze być „wkręcony” w pisanie rzeczy nieodpowiednich, ale zwykły algorytm który to potem analizuje - już po wygenerowaniu odpowiedzi, może to zablokować

Zwykłe algorytmy są by ktoś powiedział ‘głupsze’ ale przewidywalne.

[UPDATE 2/6/23 - in communication with AEROSPACE - Col Hamilton admits he „mis-spoke” in his presentation at the Royal Aeronautical Society FCAS Summit and the ‘rogue AI drone simulation’ was a hypothetical „thought experiment” from outside the military, based on plausible scenarios and likely outcomes rather than an actual USAF real-world simulation saying: „We’ve never run that experiment, nor would we need to in order to realise that this is a plausible outcome”. He clarifies that the USAF has not tested any weaponised AI in this way (real or simulated) and says „Despite this being a hypothetical example, this illustrates the real-world challenges posed by AI-powered capability and is why the Air Force is committed to the ethical development of AI”.]

Highlights from the RAeS Future Combat Air & Space Capabilities Summit (aerosociety.com)

Ha ha ha ha - jak napisałem, straszenie Skynetem wchodzi na nowy poziom :stuck_out_tongue_winking_eye:

Płk Hamilton przyznał, że… „pomylił się” w swojej prezentacji na szczycie FCAS Royal Aeronautical Society, a „nieuczciwa symulacja drona AI” była hipotetycznym „eksperymentem myślowym”.
:rofl: :joy: :rofl:

„Nigdy nie przeprowadziliśmy tego eksperymentu i nie potrzebowalibyśmy go robić, aby zdać sobie sprawę, że jest to prawdopodobny wynik”.

No brawo.

Sztuczna „yntelygencja” od Google:

A to dodam jeszcze odpowiedź Chat GPT ver. 3.5, z którą próbuje rywalizować Google. Dodam, że całkiem sensowną odpowiedź:

Hmm, dziwne trochę wygląda na jakąś chwilową awarię? Bing Chat oceniam wyżej ale z Bardem mam całkiem pozytywne doświadczenia. Spróbuj przeprowadzić podobną konwersację ponownie. Np ja zadając ostatnie pytanie, dostałem pełną odpowiedź - więc może „wyłożyłeś” Barda całą konwersacją, za którą przestał nadążać.


A co do świadomości, to jeszcze nie - dziewiętnastu badaczy twierdzi, że sztuczna inteligencja nie jest jeszcze świadoma Nineteen researchers say AI is not sentient—not yet

E tam, obie są ok. spróbujcie ustawić obie po przeciwnej stronie barykady jakiegoś zagadnienia i pobawić się w pośrednika w polemice. :grin: po prostu to tylko narzędzia, bardzo przydatne zresztą.

Nie, wcześniej zapytałem „Ile to jest jard” (odpowiedział poprawnie), a potem „czy można powiedzieć, że 10 jardów to około 9,1 metra?”. Odpowiedział, że można tak powiedzieć.

Wtedy zapytałem: Dlaczego Amerykanie trzymają się tych imperialnych jednostek miar?

No i bard poległ… :wink:

Tak, to „tylko narzędzia”, a o samoświadomości czy świadomości nie ma co mówić w tym kontekście. Narzędzia inteligentne, choć to też zależy oczywiście od tego, jak zdefiniujemy inteligencję. Ale ja, na swoje potrzeby, tak definiuję.
Ale oba „kłamią” na potęgę i nie wiem (choć się domyślam :wink: ) dlaczego. Jak zadaję specjalistyczne pytanie w dziedzinie na której się znam (więc łatwo mogę zweryfikować poprawność odpowiedzi), to często dostaję kompletnie bzdurne odpowiedzi i bardzo, ale to bardzo trudno jest skłonić AI do powiedzenia „Nie wiem”.
Za każdym razem niby przyznaje się do błędu, ale znów podaje błędną odpowiedź, byleby jakąś podać.







A z kilku innych dyskusji:

Tak. Dlatego po pewnej ilości zabaw doszedłem do punktu, w którym traktuje te narzędzia jako swego rodzaju uproszony komputer i wrzucam dane w postaci uroszczonego kodu/tekstu.
SI ma np. świetne dane takie jak ilości, przenikanie cieplne itd. więc zamiast robić masy wzorów, wystarczy podać listę rzeczy do zrobienia, przeliczenia uwzględnienia, widełki tolerancji itp. aby uzyskać fantastyczne wyniki w kilka chwil. Do tego wyniki, pokrywające się w przybliżeniu z mozolnymi wyliczeniami.

Tak samo jest z produkcją tekstów, dajemy zarys, plan tego co chcemy uzyskać, dajemy nacisk na sposób przedstawienia tekstu i mamy fantastyczny materiał, który po drobnej korekcie jest gotowy.

Traktujemy po prostu SI jak hmm sekretarkę? Opowiadamy po prostu, bez dawania pola dla konfabulacji i wtedy działa malinowo. To nie jest źródło wiedzy.

Jestes pewny ze się domyslasz.

Jest coś takiego co w 2002 roku odkrył zespół Google na swoich serwerach i nazwał „nadwyzką behawioralna” .
To tzw. exhaust data, ślad danych pozostawiony przez użytkowników systemu komputerowego po odwiedzeniu witryny, kliknięciu w link, a nawet po najechaniu wskaźnikiem myszy. W ten sposób powstaje ogromna ilość surowych danych które można przechowywać, analizować i sprzedawać.
I to sie robi. Z tego żyją.
Masz smartfona. A on dostarcza sporo informacji o tobie, chocby do jakiej knajpy chodzisz.
Dyskutujesz z ChatGPT i cieszysz się ze jest głupszy niz ty.
A moze to Microsoft dzieki temu sporo wie o tobie .

Jest taka ksiazka.autorki Shoshana Zuboff
„The Age of Surveillance Capitalism”
Radze przeczytać by zrozumieć czy COŚ jest dla ciebie czy ty jesteś dla tego COŚ.
Szczególnie gdy to COŚ jest za „DARMO”.

Wg mnie przeceniasz trochę te algorytmy, tzn fakt że potrafią kłamać. Już wcześniej zauważyłem podobne zachowania i po prostu

  • dla różnych zapytań o to samo i w zależności od poprzedzającej dyskusji wyciągają różne dane, przepraszając za błąd
  • przytakują użytkownikowi, widocznie zakładając że człowiek ma rację

Na przykładzie rozmowy podobnej do Twojej

Co ciekawe ta rozmowa rozpoczęła się tak

… dalej rozmowa z pierwszego zrzutu ekranu

ChatGPT nie powiedział ile, twierdząc że nie jest pewien - może to jakiś wniosek wyciągnięty z rozmowy z Tobą, kiedy go korygowałeś i algorytm jakoś zapisał tą informację do niepewnych/wymagających douczenia? Nie wiem czy to tak dzała, raczej jestem skłonny stwierdzić, że początek Twojej rozmowy miał wpływ na odpowiedź o ilości kg.

To po prostu algorytm przetwarzający wejście na wyjście a po drodze ma ogromny zbiór danych i drobna zmiana kieruje go na zupełnie inne tory. Taki plus, ze widać że w pewnych rzeczach te AI są „w miarę w porządku”, (np programowanie, bo może uczyć się na ogromnym zbiorze powtarzalnych danych?) i do rzeczy w których sobie radzą warto ich używać.

A to chyba dobry dowód na to, że lepiej rozmawiać z Bing Chat

GPT-3 175 miliardów parametrów,
GPT-4 ma mieć podobno 1 bilion parametrów

Może te parametry mają coś wspólnego z kojarzeniem faktów z ogromnego zbioru danych. GPT3 jest „za krótki”, GPT-4 potrafi połączyć więcej faktów na bazie których generuje odpowiedź. Ewnetualnie potrafi lepiej rozróżnić prawdziwe informacje

Z tym że Bing Chat też ładnie potrafi przepraszać, gdy zasugeruje mu się złą odpowiedź, ale już nie powtarza bredni użytkownika
obraz

Jak dla mnie po tym co tu zobaczyłem, to coraz mniej warto korzystać z GPT3