Deep learning/uczenie maszynowe/sztuczna inteligencja i tematy powiązane

Raz na jakiś czas czytam nt nowości związanych ze „sztuczną inteligencją”. Wyjątkowo widowiskowe są tematy związane z przetwarzaniem obrazu przez tzw GAN. Dziś natrafiłem na model generujący obraz z samego opisu.

Na dziś dzień podchodzę do tego rozrywkowo, ale jednocześnie temat pobudza wyobraźnię, co będzie za np 20 lat. Z DALL-E2 związana jest pewna ciekawostka (tworzenie własnego języka), źródło: Sztuczna inteligencja tworzy własny język. Niepokojące odkrycie naukowców | CHIP

Tutaj jeszcze więcej fajnych wyników działania OpenAI DALL-E 2: Top 10 Insane Results! 🤖 - YouTube

Tutaj pobawicie się pierwowzorem modelu (wersja mini cokolwiek by to nie znaczyło - pewnie mocno okrojona) DALL·E mini - a Hugging Face Space by dalle-mini

Widać że nie ma tej mocy, co 2’ka. Co wam wyszło? :wink:

To czytałeś ?

Czytałem, niezły numer :slight_smile:

Ze sztuczna inteligencja wiąże się spore ryzyko że staje się ono mocno… dyskryminujące.
Pamietam historię ( być może urban legend - nie mam źródła teraz), o AI jako remedium na nierówną rekrutację. AI po czasie i wprowadzeniu danych dyskrymiowało na podstawie koloru skóry i zostało wyłączone ( choć zawierało dużo danych- kolor skóry sam w sobie nie był podany, był jakby ekstrapolowany z innych danych(!)).

Ale to jest stosunkowo łatwe do wyobrażenia - jeśli dziś chcielibyśmy stworzyć AI wskazujące szanse zostania noblistą, i robilibyśmy to na podstawie danych historycznych, to zapewne AI wskazywałoby większe szanse białych mężczyzn. Wiem, że trochę brzmi jak feminizm, ale opieranie się na AI to faktycznie zagrożenie, bo zasilamy je jakimiś danymi- ono samo z siebie nie odkryje, że system się zmienił nagle.

Z resztą jeśli chodzi o sprawy bieżące - są próby zaprzęgnięcia AI do np. analizy ryzyka kredytowego (być może banki już to robią - nie wiem). Czyli oszacowania czy będziesz grzecznie płacił kredyt. I teraz jak to zasilimy danymi, to okaże się, że młodzi mają tendencje do „zaspania” ze spłatą, również ich kariera jest jeszcze niestabilna i będą zmieniać, być może pracę. Najbardziej stabilną grupą będą zapewne 30-40 latkowie. Starsze osoby też mogą mieć problem częściej ze spłatą ( to są dane z dupy, podsłyszane gdzieś, czy przeczytane, nie mam liczb, żeby je potwierdzić, ale załóżmy, że to prawda). To samo będzie z samotnymi matkami itd.
AI będzie znakomicie i wydajnie dyskryminowało takie osoby, co jest jak najbardziej prawidłowe, ale także… nieludzkie trochę.

Ja nie mówię, że AI to zło, tylko że trzeba być bardzo bardzo ostrożnym i społecznie odpowiedzialnym, żeby stworzyć AI, które nie będzie seksistą, rasistą, „ageystą” , czy jeszcze innym „istą”. Być może trzeba nawet wprowadzić dane paretytujące, zakłamać lekko rzeczywistość - to jest mega rozkmina, czy coś takiego jest ok, czy nie. Czy to jest moralnie ok.

Żeby teraz wrócić do przykładu banku: to co podałem wyżej to dyskryminatory statystyczne, których spokojnie można używać bez użycia AI- ba! Jestem przekonany, że licząc nasz „score” w banku to już się dzieje.

Ot taka rozkmina.

To się nazywa Algorithm Bias.

Zobacz: Home - Algorithm Bias - Research Guides at The Florida State University

Ciekawa rozkminka. Taka myśl mi przeszła przez głowę, że AI w takich zastosowaniach będzie dobra dopiero wtedy, jak sama będzie w stanie obserwować świat i wyciągać wnioski.

AI będzie w stanie przewidzieć gigantyczną ilość ruchów do przodu. Zaproponuje np rzeczy, (dla przykładu jakieś zmiany w gospodarce, zmiany społeczne, w zarządzaniu itp), które będą dla nas nielogiczne (bo nie ogarniamy tyle ruchów do przodu). Z perspektywy czasu cała układanka zacznie do siebie pasować, będą realne korzyści.

W skali mikro tak już się dzieje w szachach. Wielcy szachiści już dawno nie są w stanie wygrać z komputerem. Co więcej, często nie rozumieją początkowych ruchów. Nie rozumieją dlaczego komputer robi na początku pewne posunięcia, ale po 20-30 ruchach okazuje się, że to miało sens i komputer wygrywa.

Mózg ludzki nie jest stworzony do takich rzeczy. Przewidujemy znacznie mniej do przodu, nie przetwarzamy tak dużej ilości informacji, kierujemy się osobistymi pobudkami, uważamy że działamy logicznie a tak naprawdę podejmiemy decyzje emocjonalnie, kierując się sympatią czy antypatią do kogoś lub czegoś - a potem staramy się ten zryw umotywować logiką…

W wyniku czego w dłuższym okresie ponosimy konsekwencje i nie rozumiemy dlaczego. AI, jeżeli będzie w stanie obserwować i rozumieć świat, to poradzi sobie z planowaniem na wiele wiele kroków do przodu.

Oczywiście istnieją wszelkie kwestie panowania AI nad światem, ale pomijam je w tym wpisie, bo to duży temat.

Ale to tak nie działa. Najprościej to wyjaśnić na przykładzie gry kółko i krzyżyk. Algorytm zna wszystkie możliwe kombinacje. Jest ich 362 880. Dlatego zawsze, w każdej pozycji, wybierze najlepszy ruch. Dokładnie tak samo jest z szachami. Szachy, tak samo jak kółko i krzyżyk są grą skończoną (czyli jest maksymalna liczba możliwych kombinacji). Tylko w szachach tych kombinacji jest więcej. Moc obliczeniowa urządzeń jest coraz większa, więc coraz szybciej to liczą, np iPhone 12 jest 967 razy wydajniejszy niż Deep Blue (ten, który pokonał Kasparowa).

Świat też jest pewnego rodzaju grą z ogromną ilością kombinacji. Wg mnie AI nie musiałaby się skupiać na wszystkich aspektach świata, tylko na pewnym wycinku, który ma mniejszą ilość kombinacji (nie interesuje nas to jak rosną komórki w trawie, ale najważniejsze procesy biologiczne/chemiczne/gospodarcze/polityczne/społeczne…)

Takie skupienie powoduje, że ilość kombinacji w grze w świat wciąż jest nie do ogarnięcia dla człowieka ale może być już do przeliczenia z akceptowalnym marginesem błędu, przez odpowiednio zaawansowaną, potrafiącą obserwować, AI.

Także, to o czym piszesz, czyli algorytmy i skończone ilości kombinacji - jak najbardziej mi pasują do tematu.

Oczwyiście to są tylko analogie. Do tematu AI trzeba wg mnie podejść trochę luźniej, bo może okazać się że przeanalizowanie 10% informacji, ale z odpowiednio dobranych źródeł (różnorodnych środowisk) , daje obraz całości w wystarczająco dobrym przybliżeniu i umożliwia „wygraną”.

Ale to nie jest sztuczna inteligencja, tylko brutalna moc obliczeniowa :slight_smile: Jestem przekonany, że wcześniej czy później pojawi się technologia integracji naszych mózgów z czipami, które umożliwią naszym mózgom dostęp do zewnętrznej mocy obliczeniowej i… :wink:

Nie wiemy czy skończoną czy nie :slight_smile:

W sumie na dziś dzień to są rozważania filozoficzne w dużej mierze:)
Co do interfejsu mózg - komputer - absolutnie się zgadzam, i myślę że długo na to nie będziemy czekać.

Na moją ocenę AI bardzo mocno wpływa „Golem XIV” Lema :slight_smile: Jeśli nie znasz — mocno polecam.

Ale gra ‘wstępna’ dawno się skończyła.
Microsoft niby podaje, że od 2019 (chciałbym wierzyć) ich bot skanuje wszelkie dostępne wypociny programistów na całym świecie aby się uczyć i podpowiadać jak to robią inni etc.
Nie będę tu się wywodził a dam link gdzie to ładnie opowiedziano:
Właściwa gadka jak to ich AI nas podgląda w kąpieli zaczyna się około 4:30 min.

W sumie to szukam czegoś do czytania, bo ostatnio czytnik ebooków zarasta kurzem :wink:

Proszę, akurat jest promka:

@januszek: Mam na Legimi w abonamencie (ja płacę, rodzina czyta ;D) , jest chyba większość z Lema.

Możliwe, bo ja od dwóch lat używam wtyczki o nazwie TabNine, która działa na podobnej zasadzie. Jak jest uruchomiona podczas pracy, to cały czas wysyła coś na serwery analizujac moją pracę i jednocześnie odbiera dane z pracy innych. O ile na początku traktowałem to jako zabawkę, to po dwóch latach stwierdzam, że bardzo pomocne i nie chcę pracować bez.

Ostatnio mignął mi tweet Microsoftu, który podnosi to na kolejny poziom (i w świetle tego co obserwuję w tej dziedzinie, jestem w stanie uwierzyć że tak będzie). Kod z opisu słownego:

obraz
https://twitter.com/Microsoft/status/1532398537354498051

być może stockfish tak działa. Alpha zero nie do końca. A stockfish z nim przegrał jeśli dobrze kojarzę.
I to sromotnie.

Swoją drogą takiemu Alpha zero „musi być smutno” - nie jest w stanie się nawet przekonać, jaki ma ranking - gdzieś słyszałem, że szacuje sie ze jego ranking to 3600(?), ale nie ma tego jak potwierdzić :slight_smile:

OIW to jest sieć neuronowa, która uczy się, rozgrywając sama ze sobą jakieś ogromne ilości rozgrywek. Moim zdaniem to też mieści się w zbiorze: brutalna moc obliczeniowa :slight_smile:

Różnica jest w sposobie wykorzystania tej mocy. W jednym przypadku moc idzie w algorytmy i zasady, ściśle zdefiniowane, doskonale zrozumiałe dla projektanta, możliwe do udokumentowania na każdym kroku. W drugim moc idzie w sieć neuronową, której sposób działania, ukształtowany przez lata uczenia, jest bardzo trudny do analizy przez człowieka. Czasami wręcz niemożliwy w rozsądnym czasie - mimo tego sieć daje oczekiwane wyniki.

Matematycznie opisano sztuczny neuron w 1943 roku, pierwszą mechaniczną sieć paraneuronową zbudowano w 1958 roku. Od tego czasu nie zmieniła się zasada działania sieci. Nauczyliśmy się budować coraz bardziej złożone sieci. Różnica jest jak między szpadlem a koparką.

Mnie nie przeszkadza to, że uczą SI analizując czyjeś prace. Tak samo jest OK jeśli by SI sugerowała w jaki sposób coś zrobić aby było lepiej. Bardziej obawiam się podejścia na zasadzie sugestii bez opcji odmowy.
Tak jak w pewnym momencie było z upgarde do w10.
„Możesz zainstalować, możesz odroczyć”
Bez opcji „Nie chcę”.

Nie wiem jak to wygląda w praktyce ale ponoć w10 miał usuwać programy jeśli zostaną uznane za niewłaściwe.
No ale kto to miał podejmować decyzję ? Bo jakoś nie widzi mi się tego sztabu ludzi co ustalą decyzję która aplikacja jest OK. Czyli jakiś boto-SI.