Aktywne Wpisy
WielkiNos +385
Wyobrażacie sobie ból lewackich odbytów gdyby na jakiejś grupce napisać, że się nie lubi murzynów bo są #!$%@?#@$ący i mają niskie iq?
Tymczasem lewaczki:
#dzieci #macierzynstwo #tatacontent #lewackalogika #bekazlewactwa #p0lka #julka
Tymczasem lewaczki:
#dzieci #macierzynstwo #tatacontent #lewackalogika #bekazlewactwa #p0lka #julka
Antybristler +405
Siema. Jakiś czas temu chwaliłem się tutaj, że wychodzę z teleskopem na miasto i spotkało się to ze sporym entuzjazmem. Zaczynałem od pokazywania Saturna, bo myślałem, że tylko ta planeta będzie robić wrażenie. Do widoku takiego księżyca niejako przywykliśmy, nie to co planeta z pierścieniami. Okazuje się jednak, że inne rzeczy na niebie też są chętnie oglądane, a moja inicjatywa trochę się rozwinęła. Cały czas inwestuję w sprzęt, żeby uatrakcyjnić pokazy, ale
Już dawno temu zauważyłem, że model, który deterministycznie udziela odpowiedzi na pytania na podstawie tekstu nie powinien być nazywany inteligencją niezależnie od tego jakie ma zastosowanie (bo oczywiście nie wykluczam szerokich zastosowań takich rzeczy).
Gdy ktoś zapyta mnie o to ile jest 2+2, to oczywiście odpowiedź będzie natychmiastowa, niczym zaserwowana "z cache". Ale wyniku działania 563+125 nie mam w pamięci, więc gdybym miał udzielić odpowiedzi w stałym czasie, odpowiedziałbym "nie wiem". Ale gdy coś takiego dostaje na teście, zaczynam to liczyć z użyciem znanych mi schematów, które jednak zależą od danych wejściowych, bo inaczej zacznę liczyć 5000+6000 a inaczej 53+174.
Więc pierwszą rzeczą jaką wg mnie musi posiadać inteligencja jest logika, która zależy od danych wejściowych. Skoro jestem w stanie wykonywać w pamięci algorytmy z pętlami, to oczywiste jest, że każdy model, który "nie mógłby się zapętlić" nie jest inteligentny.
Tym tropem można iść dalej. Skoro to ma być "inteligencja", to powinna móc uczyć się dowolnych rzeczy i wykonywać dowolne zadania. Załóżmy, że na danym sprzęcie zainstalowane jest AI a ja każę mu zmodyfikować algorytm LZO i skompresować tym zmodyfikowanym algorytmem dany duży plik. Jeśli na danym sprzęcie jest architektura powiedzmy AArch64, to logicznym jest, że hipotetyczne AI powinno być w stanie wygenerować instrukcje maszynowe (być może niebezpośrednio) dla tej architektury, a potem wykonać je "natywnie" - bo to byłoby inteligentniejsze niż wykonywanie tego w swoim VM.
Drugą rzeczą jest więc możliwość generacji i delegacji logiki tak, aby była ona wykonywana w optymalny sposób (możliwie jak najbardziej natywnie). Bez tego takie "AI" będzie niepraktyczne.
Trzecią rzeczą jest wg mnie możliwość ciągłej ewolucji w trakcie wykonywania zadań, czyli brak klasycznego podziału na proces uczenia oraz wykonywania zadań. Tu przykład mógłby być taki "Jak najszybciej złam ten hash sha256: X. W międzyczasie przetłumacz stronę Y na język chiński.". No i tak, jeśli na tej stronie Y było by napisane "sha256(Z) = X", to najoptymalniejszym rozwiązaniem - i takim, które wykonałby człowiek - byłoby sprawdzenie Z poza kolejką. To jednak wymaga tego, żeby swoją wiedzę wykorzystać również do tego aby zoptymalizować dalsze pozyskiwanie wiedzy.
Obecne modele są niewątpliwie czymś ciekawym i mogą być przydatne, ale wg mnie one nie są tym, czym wiele ludzi myśli, że są.
#ai #openai #chatgpt #sztucznainteligencja #przemyslenia
Komentarz usunięty przez autora Wpisu
Komentarz usunięty przez autora Wpisu
Komentarz usunięty przez autora Wpisu