Deep learning/uczenie maszynowe/sztuczna inteligencja i tematy powiązane

Zadałem temu parę pytań o dobreprogramy:

open-AI-blagerzy

Czyli już na dzień dobry Boot robi błędy, bo unikalny myli z unikatowym.

Wygląda na to, że GPT postanowił stworzyć historię, w czym jest dobry

Urwane na końcu - widać moc obliczeniowa w wersji darmowej jest ograniczona na zapytanie

Być może GPT do końca nie rozumie o co pytałeś i pomieszało mu się opowiadanie fikcji z pisaniem o rzeczywistości. Te sieci cały czas się uczą / formują. Można sobie wyobrazić taką sieć karmioną tylko wartościowymi treściami.

To sztuczna inteligencja, która się cały czas uczy. Pewnie lepiej porozumiewa się w angielskim, ponieważ do nauki angielskiego jest większa baza. Im mniej materiałów, tym częsciej GPT zachowuje się jak niedouczone dziecko. Im lepiej dany aspekt jest „przećwiczony” tym lepiej potrafi się nim GPT posługiwać.

Dla przykładu programowanie, rzeczy popularne:

Na tych przykładach widać ze AI/sieć neuronowa to nie jest ustalony algorytm - bardziej przypomina mózg. Gdy czegoś nie wie, błądzi i zmyśla - jak niedouczony dzieciak przepytywany w szkole. Gdy coś umie bardzo dobrze, porusza się po tym bezbłędnie.

Dużo informacji o HTML, znamy go świetnie:

Napisz kod HTML z wykorzystaniem Bootstrap. Podziel widok na 3 kolumny i umieść menu w nagłówku. Do menu dodaj trzy pozycje. Pierwsza „O firmie”, druga „Oferta” i trzecia „Kontakt”.

<!DOCTYPE html>
<html>
<head>
  <link rel="stylesheet" href="https://stackpath.bootstrapcdn.com/bootstrap/4.4.1/css/bootstrap.min.css" integrity="sha384-Vkoo8x4CGsO3+Hhxv8T/Q5PaXtkKtu6ug5TOeNV6gBiFeWPGFN9MuhOf23Q9Ifjh" crossorigin="anonymous">
  <title>Firma</title>
</head>
<body>
  <nav class="navbar navbar-expand-lg navbar-light bg-light">
    <a class="navbar-brand" href="#">Firma</a>
    <button class="navbar-toggler" type="button" data-toggle="collapse" data-target="#navbarNav" aria-controls="navbarNav" aria-expanded="false" aria-label="Toggle navigation">
      <span class="navbar-toggler-icon"></span>
    </button>
    <div class="collapse navbar-collapse" id="navbarNav">
      <ul class="navbar-nav">
        <li class="nav-item active">
          <a class="nav-link" href="#">O firmie</a>
        </li>
        <li class="nav-item">
          <a class="nav-link" href="#">Oferta</a>
        </li>
        <li class="nav-item">
          <a class="nav-link" href="#">Kontakt</a>
        </li>
      </ul>
    </div>
  </nav>
  <div class="container">
    <div class="row">
      <div class="col-4">
        Lorem ipsum dolor sit amet, consectetur adipiscing elit.
      </div>
      <div class="col-4">
        Lorem ipsum dolor sit amet, consectetur adipiscing elit.
      </div>
      <div class="col-4">
        Lorem ipsum dolor sit amet, consectetur adipiscing elit.
      </div>
    </div>
  </div>
</body>
</html>

i od razu działa bez poprawki (!)

Coś znacznie prostszego ale o czym jest w sieci mało informacji:

Narysuj okrąg oraz linię prostopadłą za pomocą języka BASIC komputera ZX Spectrum.

Widać, że GPT coś tam słyszał o ZX Spectrum ale zbyt mało, żeby nauczyć się poprawnie programować w BASIC tego komputera. Gdyby ktoś go w tym kierunku "doszkolił’ - to robiłby to świetnie. Zauważmy, że mamy do czynienia z czatem ogólnym na każdy temat i uważam, ze jego faza uczenia to etap niemowlęcy a mimo to radzi sobie zaskakująco dobrze. Jeszcze 2-3 lata temu nic takiego nie było - przynajmniej publicznie. Przed botami AI - boty rozmawiały w sposób podobny do tego z lat 90’s.

Ja to widzę tak, że z czasem pojawią się narzędzia które za nas będą wyszukiwać dane, weryfikować, podawać w przystępnej formie itd. i tak jak są różne wyszukiwarki i przeglądarki, tak będą różne roboty do tego celu.

W Google chyba też podobnie myślą.

Wprowadzam poprawki w swoich programach, dziś po raz pierwszy z pomocą ChatGPT a nie Stackoverflow i stwierdzam, że Stackoverflow powinien się zacząć lekko obawiać.

edit:

DeepL dodało DeepL Write: AI-powered writing companion fajne narzędzie do korekty gramatycznej, też bazuje na AI.

Ja już się zastanawiam z przerażeniem co to będzie, jak to zniknie.

Chat potrafi emulować wszystkie, dobrze udokumentowane w sieci systemy. Czyli można pisać komendy z terminalu linuksa i kazać mu symulować ten system, i działa. Wywala odpowiedzi jak linux. Zresztą nie tylko to. Jak to się udoskonali, to będzie niczym kot czarownicy. Niczym SI statku kosmicznego. A do tego bezbłędne narzędzie dla osób starszych. Przy odrobinie poprawek jak w Modyfikowanym Węglu. Teraz to dzidzia.
Ale jak doda się symulację osobowości, to będzie masakra.

Fakt potrafi sporo. Mogą wprowadzić abonament, mam nadzieję że nie zrobią tego a jak już, to będzie on akceptowalny.

Ja bym się raczej bał programów, tych „twórców” co do ich konstrukcji uzywaja czegos takiego, wierzac w to ze one zrobią tylko to do czego zostały utworzone i nic więcej.

No ale wiara czyni cuda

Dostaję mniej więcej to co wyszukuję w Stackoverflow, czyli fragmenty z dokumentacji, przykłady itp, tyle że ChatGPT dostarcza to szybciej i lepiej rozumie moją intencję. Pobawię się z tydzień i zobaczę czy to jest tak dobre, czy akurat dziś mu się udało.

W porównaniu z człowiekiem, ilość błędów jest znikoma i nie dotyczy gramatyki i ortografii. Podobnie jest z kodem, jest pisany bardzo schludnie, opatrzony dokładnymi opisami działań i bardzo łatwo się zorientować co jest do czego. Pisząc samemu, popełnia się o wiele więcej błędów i częściej trzeba coś poprawiać.

Zeby to wiedzieć trzeba sprawdzić. Na jedno wychodzi. No chyba ze tylko wiara zostaje
P.S.
Kod raczej nie jest pisany a wyszukiwany z baz danych.
Chyba nie sadzisz ze kiedy takich zabawek nie było ktoś całośc kodu jakiegos programu pisał sam od poczatku do końca… Tylko ze wtedy trzeba wiedziec czego sie szuka.
Teraz chcesz wierzyć ze algorytm błedów nie popełnia i jest uczciwy. O tym to jest

Właśnie w tym cały bajer, że nie. Ten soft uczy się zasad i bazując na nich pisze kody, jakich nigdzie nie znajdziesz. Można tworzyć nowe rzeczy.

Łatwo sprawdzić. Ale przede wszystkim, o wiele, wiele szybciej. Błędy może popełniać, jak i człowiek, ale co jest łatwiejsze, rysować widoczek, czy spojrzeć i powiedzieć, o tutaj drzewo jest białe zamiast zielone, to popraw.

Na czym polega nauka czegoś?
Prosze przeczytać i postarać sie zrozumieć, zamiast w bajki wierzyć.

Po przeczytaniu mimo wszystko uświadom sobie ze to tylko algorytm.
P.S.
Napisałem kiedyś ze ChatGPT podał mi informacje dotyczaca naprawy fragmentu systemu . Po uzyskaniu ode mnie informacji ze ten sposób nie dotyczy tego systemu i że jego wykonanie uszkodzi ten system, algorytm zweryfikował swoja odpowiedź, wykorzystujac baze danych MS i przyznał mi racje ale nadal nie potrafił podać prawidłowego rozwiazania ponieważ ono w dostepnej bazie nie figuruje. Co ChatGPT wtedy zrobił? Skierował mnie do Microsoftu po odpowiedź.
Nauczył sie jednak czegoś? Nauczył. Lecz nie dzieki temu ze stworzył a nastepnie przeanalizował kod OS ale temu ze ponownie przesledził dostępną mu baze danych dotyczaca tego systemu.
Przypominam takze ze obecnie to program testowy, wprawdzie juz w wersji 9.
Firma która sie tym bawi, we wczesniejszej fazie dostała 1 miliard $ a teraz dostaje następne 10 miliardów od Microsoftu wiec moze cos z tego wyjdzie ale na razie to „zabawka” która korzysta z dostępu do danych z roku 2021 i lat wcześniejszych bo tak załozyli twórcy.

Wczorajszy dzień z programowaniem wspieranym ChatGPT uważam za udany. Mogłem skupić się bardziej na koncepcie a mniej na wyszukiwaniu tych wszystkich uciążliwych do znalezienia detali, jakie występują w milionach w przypadku programowania z użyciem wielu bibliotek i frameworków. W sumie to może znam jedną, dwie osoby, świetnych programistów, które takie rzeczy swobodnie ogarniają i nie muszą spędzać tyle czasu grzebiąc w dokumentacji i na Stackoverflow.

Podsumowując, nie wiem jak to działa ale działa bardzo OK.

Edit: Czytam na Twitterze wątek o ChatGPT i programowaniu. Ludzie, którzy są doskonali w programowaniu, twierdzą że ChatGPT nie jest im potrzebny i wolą pracować sami, popełniając przy tym mniej błędów. Wielu jednak ChatGPT sobie chwali.

Edit: W robotyce SI pewnie też ma coraz więcej do powiedzenia. Np jak pokazać, że jest się bardzo ważnym robotem na tej budowie, jednocześnie nie robiąc zbyt wiele pożytecznego ale za to dobrze się bawiąc;)

https://twitter.com/BostonDynamics/status/1615728730969710592

Zawsze najwazniejszy jest Algorytm.
Przy pomocy jakiego języka i jak, przekształci sie go w cos co „maszyna” zrozumie jest sprawą drugorzędna.
Twórca scenariusza i rezyser jest wazniejszy od aktora co dobitnie wyraził Dejmek.
" Aktor jest od grania, tak jak dupa od srania"
Ale… rezyser musi wiedziec jak to powinno działać. Twórca scenariusza juz nie. Po to ma rezysera i „dupe”

IBM Watson to był projekt, który poszedł w złą stronę i poległ.

Zobacz, jak Dukaj tłumaczy Bartosiakowi czym różni się kultura oralna, piśmienna i postpiśmienna:

Co ma twój post do tego co napisałem?
Aktor ma zagrac tak jak chce rezyser, po to jest.
A artykuł do którego link zamiesciłem wyjasnia tylko czym i na czym polega tzw. uczenie maszynowe oraz jakie sa róznice pomiedzy jego typami.
Jak ktoś chce to lepiej zrozumieć powinien poszukać dodatkowo czym jest Neural Networks i czym jest Convolutional Neural Networks.