Wpis z mikrobloga

ChatGPT to AI? No nie bardzo. Mój test bardzo szybko oblał. I choć oczywiście ma on znacznie większą wiedzę niż ja, to moim zdaniem brakuje tutaj kluczowego elementu, czyli sprzężenia zwrotnego i na ten moment nawet nie zanosi się na to, żeby coś takiego w najbliższej przyszłości powstało.

Już dawno temu zauważyłem, że model, który deterministycznie udziela odpowiedzi na pytania na podstawie tekstu nie powinien być nazywany inteligencją niezależnie od tego jakie ma zastosowanie (bo oczywiście nie wykluczam szerokich zastosowań takich rzeczy).

Gdy ktoś zapyta mnie o to ile jest 2+2, to oczywiście odpowiedź będzie natychmiastowa, niczym zaserwowana "z cache". Ale wyniku działania 563+125 nie mam w pamięci, więc gdybym miał udzielić odpowiedzi w stałym czasie, odpowiedziałbym "nie wiem". Ale gdy coś takiego dostaje na teście, zaczynam to liczyć z użyciem znanych mi schematów, które jednak zależą od danych wejściowych, bo inaczej zacznę liczyć 5000+6000 a inaczej 53+174.

Więc pierwszą rzeczą jaką wg mnie musi posiadać inteligencja jest logika, która zależy od danych wejściowych. Skoro jestem w stanie wykonywać w pamięci algorytmy z pętlami, to oczywiste jest, że każdy model, który "nie mógłby się zapętlić" nie jest inteligentny.

Tym tropem można iść dalej. Skoro to ma być "inteligencja", to powinna móc uczyć się dowolnych rzeczy i wykonywać dowolne zadania. Załóżmy, że na danym sprzęcie zainstalowane jest AI a ja każę mu zmodyfikować algorytm LZO i skompresować tym zmodyfikowanym algorytmem dany duży plik. Jeśli na danym sprzęcie jest architektura powiedzmy AArch64, to logicznym jest, że hipotetyczne AI powinno być w stanie wygenerować instrukcje maszynowe (być może niebezpośrednio) dla tej architektury, a potem wykonać je "natywnie" - bo to byłoby inteligentniejsze niż wykonywanie tego w swoim VM.

Drugą rzeczą jest więc możliwość generacji i delegacji logiki tak, aby była ona wykonywana w optymalny sposób (możliwie jak najbardziej natywnie). Bez tego takie "AI" będzie niepraktyczne.


Trzecią rzeczą jest wg mnie możliwość ciągłej ewolucji w trakcie wykonywania zadań, czyli brak klasycznego podziału na proces uczenia oraz wykonywania zadań. Tu przykład mógłby być taki "Jak najszybciej złam ten hash sha256: X. W międzyczasie przetłumacz stronę Y na język chiński.". No i tak, jeśli na tej stronie Y było by napisane "sha256(Z) = X", to najoptymalniejszym rozwiązaniem - i takim, które wykonałby człowiek - byłoby sprawdzenie Z poza kolejką. To jednak wymaga tego, żeby swoją wiedzę wykorzystać również do tego aby zoptymalizować dalsze pozyskiwanie wiedzy.

Obecne modele są niewątpliwie czymś ciekawym i mogą być przydatne, ale wg mnie one nie są tym, czym wiele ludzi myśli, że są.

#ai #openai #chatgpt #sztucznainteligencja #przemyslenia
Pobierz TrzyZnaki - ChatGPT to AI? No nie bardzo. Mój test bardzo szybko oblał. I choć oczywi...
źródło: comment_16702455435DuROqBsyWwkprbGzlmT13.jpg
  • 8
@TrzyZnaki: przecież całe RL opiera się na sprzężeniu. Kwestia czasu kiedy transformery staną się stabilne z modułem RLowym. IMO kolejne 5 lat to rewolucja całego rynku IT; trzęsienie ziemi od sosop po wykwintna efficient algorytmike. po prostu różne modele będą służyły do różnych rzeczy. w typowym pipeline, poza researchem, wystarczy jeden 2 teamleadow i kmiot, który będzie kontrolował duże partie wypluwanego kodu, zamiast reszty bandy darmozjadow ( ͡° ͜ʖ
@nietrudny: Nie bardzo wiem co masz na myśli przez RL, czy chcesz mi powiedzieć, że istnieje taki model, który może "wykonywać się" w nieskończoność przy odpowiednim wejściu? Ja nie twierdzę, że to nie istnieje, pisałem tylko o swoich kryteriach na tą "prawdziwą inteligencję".