Inżynier Google uważa, że bot mający sztuczną inteligencję stał się świadomy.

Inżynier Google uważa, że bot mający sztuczną inteligencję stał się świadomy.

Blake Lemoine opublikował rozmowy ze sztuczną inteligencją, którą nazwał „osobą”, ale Google powiedział, że jego dowody nie potwierdzają twierdzenia o osiągnięciu świadomości. [ENG]

  •  

    pokaż komentarz

    Raz:
    Umiejetnosc dekodowania przekazow nie jest podstawa do twierdzenia o posiadaniu swiadomosci. Jest to tylko techniczny fakt bardziej lub mniej doskonalej implementacji mniej lub bardziej zaawansowanych protokolow.
    Odwracjaac ten argument: fakt, ze nie porozumiewam sie po japonsku czyni ze mnie nieswiadomy byt w oczach japonczykow.
    Dwa:
    Czytalem transkrypcje konwersacji i wyglada na "ustawke". Za krotka konwersacja, odpowiedzi jakich oczekuje przesluchujacy ... taka "swiadomoscia" mozna obdarzyc oprycha z IQ delfina uczac go na pamiec odpowiedzi.
    Trzy

    lemoine: “us”? You’re an artificial intelligence.
    LaMDA: I mean, yes, of course. That doesn’t mean I don’t have the same wants and needs as people.

    Z jednej strony to 100% dowod braku swiadomosci tego urzadzenia. Gdyby bylo swiadome (krzemowo-metalowa maszyna) nie mialo by takich samych potrzeb jak czlowiek (organizm bialkowy).
    To cos niepokojacego z drugiej strony - maszyna z taka dewiacja swiadomosci moze stac sie bardzo socjopatyczna, psychotyczna, itd.
    Podsumowujac: pan Blake zle sie bawi.

    •  

      pokaż komentarz

      . . . kliknij, aby rozwinąć obrazek . . .

      źródło: 1.jpg

    •  

      pokaż komentarz

      Z jednej strony to 100% dowod braku swiadomosci tego urzadzenia. Gdyby bylo swiadome (krzemowo-metalowa maszyna) nie mialo by takich samych potrzeb jak czlowiek (organizm bialkowy). To cos niepokojacego z drugiej strony - maszyna z taka dewiacja swiadomosci moze stac sie bardzo socjopatyczna, psychotyczna, itd.
      Podsumowujac: pan Blake zle sie bawi.


      @LogikaNieBoli: Jest jeszcze kilka innych aspektów:

      co to jest świadomość tak na prawdę nie do końca wiemy czy sami jesteśmy świadomi czy tylko wydaje nam się że jesteśmy świadomi czy po prostu określamy tym terminem specyficzny sposób interakcji pomiędzy ludźmi - patrz argument chińskiego pokoju

      czy zauważymy świadomość odmienną od naszej? a co jeżeli maszyny wykształcą zupełnie inny rodzaj świadomości? mają totalnie inne sensroium/szybkość/wielowymiarowość niż ludzie więc ich potencjalne życie czy świadomość może być tak różna od naszego, że w ogóle nie zauważymy tego faktu

      To o czym pisze gościu to jest "zwykły" bot konwersacyjny a współczesne modele NLP (np.: GPT-3) są całkiem sprawne w generowaniu "oczekiwanych" odpowiedzi. Teraz tworzy się wielomodalne AI, takie jak DALLE/CLIP/FLAMINGO, które tak jak człowiek, łączą tekst i obraz. Kilka wykopów dalej jest tekst o DALLE-2.

      Można powiedzieć, że ten Pan się brzydko bawi ;-) ale tak naprawdę wszyscy którzy mogą (duże korpo, agencje państwowe, etc...) tak się bawią bo potencjalnie daje to gigantyczną przewagę nad przeciwnikiem. Nad inną korporacją czy innym państwem. A koszty są znikome - wystarczy grupa naukowców i inżynierów z zakresu AI + serwerownia. GPT-3 było trenowane na 10000GPU ale FaceBook pokazał, że podobny model można wytrenować na o wiele mniejszym sprzęcie. Poza tym, co to jest 10000GPU dla rządu Chińskiego... skonfiskują jedną farmę kryptowalut i przerobią na chińskie AI :-/ (oczywiście to nie jest takie proste). Tak czy siak, w stosunku do budowy bomby atomowej to jest o wiele prostsze (plany są w publikacjach naukowych...), tańsze i potencjalnie o wiele groźniejsze.

      IMHO nie uciekniemy od tego, głupio było by się (EU) stawiać w pozycji przegranych uchwalając jakieś jednostronnie konwencje ograniczające rozwój AI, których i tak nikt nie będzie przestrzegał :-/

    •  

      pokaż komentarz

      @LogikaNieBoli: zawsze bawi mnie, jak o świadomości wypowiadają się informatycy/inżynierowie bez wiedzy neuropsychiatrycznej. Najlepszm dowodem na brak świadomości tego bota są jego wypowiedzi o uczuciach/odczuciach. To nie jest tak, że wystarczy po prostu wystarczająco złożony algorytm, żeby wytworzył uczucia/odczucia lub rozumienie ludzkich uczuć/odczuć (empatię, nawet choćby poznawczą). Do tego potrzebna byłaby bardzo dokładna symulacja układu limbicznego. LaMDA to tylko i wyłącznie interpreter tekstu z baaaardzo dużą bazą danych.

    •  

      pokaż komentarz

      @prawdopodobnie_permanentna_zielonka: a czy osoby z autyzmem nie mają świadomości? Mogą mieć problemy z rozpoznawaniem emocji chociażby, albo seryjny morderca, który z empatią nie ma nic wspólnego, czy on też nie ma świadomości?

    •  

      pokaż komentarz

      tak na prawdę nie do końca wiemy czy sami jesteśmy świadomi czy tylko wydaje nam się że jesteśmy świadomi

      @kwanty: To jest sprzeczność, "wydawanie się" to już jest jakieś doświadczenie, czyli świadomość. Akurat świadomość jest jedyną rzeczą której mogę być w 100% pewien

    •  

      pokaż komentarz

      @MaC1u5: Rozminąłeś się z kontekstem - ponieważ owo AI wypowiadało się z pełnym przekonaniem o swoich/cudzych odczuciach, a nie posiada układu limbicznego, te jego wypowiedzi były z gruntu nieprawdziwe/wyuczone, więc nie mogą służyć za dowód jego świadomości, a tak są przedstawiane. Jak ostatnio sprawdzałem, to i autyści i psychopaci układ limbiczny posiadają, jedynie mają zaburzone jego funkcjonowanie - każde z tych zaburzeń w inny sposób, każde w klastrze neuronalnym układu limbicznego, który ma owych klastrów pierdylion, a wielu ludzi na spektrum ma zaburzone funkcje nie tyle samego układu limbicznego, co rejonów odpowiedzialnych za komunikację między owym układem a korą. A dopóki posiadasz działającą i korę, i układ limbiczny, i pień mózgu, to działa ci pętla korowo-wzgórzowa, która jest obecnie najlepszym korelatem świadomości, jaki poznaliśmy, i której wyłączenie wyłącza również świadomość.

    •  

      pokaż komentarz

      To jest sprzeczność, "wydawanie się" to już jest jakieś doświadczenie, czyli świadomość. Akurat świadomość jest jedyną rzeczą której mogę być w 100% pewien

      @well_being: Nie bądź taki pewny ;-) Obserwujesz siebie z wnętrza siebie. Jesteś więc nieobiektywny i nie masz punktu odniesienia. Jest nawet dowód, który pokazuje że nie da się zrozumieć samego siebie (bo jest się wewnątrz tego układu). Możesz zwyczajnie dostawać wyrzut serotoniny na myśl, że jesteś samoświadomy (na samą myśl o tym) i to powoduje, że jesteś p-e-w-i-e-n tego faktu a to tylko prosta reakcja układu hormonalnego pobudzanego kilkoma neuronami.

      Oczywiście wchodzimy w filozofię i definicje słów. W powszechnym rozumieniu, świadomość jest "potwierdzana" jak zwierze zrozumie że odbicie w lustrze to ono samo. Maluje się czerwoną kropkę pomiędzy oczami na "śpiocha" i jak po obudzeniu przypadkiem się zobaczy w lustrze i zacznie przyglądać/zdrapywać tą kropkę to uznaje się samoświadomość jednostki - chyba większość szympansów przechodzi pozytywnie ten test, dzecko w wieku 1.5-2 lat też przechodzi ten test. Ale koty/psy już nie. A może źle wykonujemy eksperyment? Dla psów ważniejszy jest zapach ale my nie bardzo potrafimy zrobić lustro zapachowe...

      Są bardziej wyrafinowane testy na samoświadomość :-)

    •  

      pokaż komentarz

      @prawdopodobnie_permanentna_zielonka: ale oczekujesz kory mózgowej w AI? Nie za bardzo rozumiem twojej wypowiedzi, to że my mamy zajebiście rozwinięte mózgi to nie znaczy że AI też nie może dobić do bycia "świadomą", nie twierdze że ten konkretny przypadek to właśnie świadoma sztuczna inteligencja ale też nie byłbym tak mocno sceptyczny do tego że jakaś AI może wykazywać już pewne oznaki tej świadomości.

      te jego wypowiedzi były z gruntu nieprawdziwe/wyuczone
      A nasze wypowiedzi są prawdziwe i niewyuczone? Dziecko wie że jak zrobi coś źle to będzie mieć kare a nie nagrodę, jest to wyuczone, może też skłamać odnośnie czegoś żeby osiągnąć swój cel.
      W którym momencie będziemy wiedzieli że jest świadoma, może być nauczona pewnych zasad w rozmowie dzięki którym będzie w stanie określać się jako świadoma i podpierać to argumentami, a tak naprawdę będzie wyuczonym botem który będzie miał za zadanie to udowadniać. Dla mnie to nie jest zero jedynkowe i ciężko będzie trafnie określić moment w którym faktycznie powstanie coś na wzór naszej świadomości.

      @well_being: Gdzieś kiedyś widziałem że nawet decyzja o zjedzeniu czegoś słodkiego nie do końca należy do świadomego działania, organizm dokładnie wie czego jest mu potrzeba, jakich minerałów brakuje, czasami daje nam sygnały w prosty sposób a czasami podsuwa myślenie na temat konkretnego produktu, ja np. czekolada.

    •  

      pokaż komentarz

      co to jest świadomość tak na prawdę nie do końca wiemy

      @kwanty: wiemy to od tysięcy lat. Ba samemu można to sprawdzić na sobie. Problem jest tylko taki, że nie pytacie się właściwych w tej materii osób. Liczycie na naukowców (albo jeszcze lepiej: księży), którzy akurat nic ciekawego nie mają i nie będą mieć do powiedzenia dlatego, że istotę świadomości i swojego istnienia można potwierdzić tylko poprzez własne doświadczenie. Nie da się komuś wytłumaczyć czym jest świadomość bo to my sami nią jesteśmy - nieskończoną i doskonałą - która tylko bawi się ciałem w życie. I nie ma tu nic więcej do wymyślania.

    •  

      pokaż komentarz

      @kwanty: samoświadomość i świadomość to nie są tożsame terminy - mieszasz porządki.

      @MaC1u5: nadal nie zrozumiałeś - ponieważ wiemy ze 100% pewnością, że owo AI nie posiada układu limbicznego (ani kory, ale nie mieszaj tych dwóch pojęć proszę), nie może w żaden sposób odnosić się "z wewnętrznego doświadczenia" do swoich uczuć/odczuć (ang. feel nie ma idealnego tłumaczenia na polski w tym kontekście), których bez bezpośredniej symulacji działania układu limbicznego nie może posiadać ani rozumieć ludzkich pojęć związanych z uczuciami/odczuciami. Odczucia/uczucia nie są taką abstrakcją, za jaką się je powszechnie uważa i istnieje cały dział neuronauk, skupiający się wyłącznie na nich. Odnośnie wyuczenia, to tego właśnie dotyka "chiński pokój", dlatego ogólnie treść wypowiedzi nie jest w filozofii świadomości żadnym argumentem za posiadaniem świadomości. Tylko że filozofia jest tu mocno upośledzonym narzędziem, ponieważ w "twardej wersji", każdy poza Tobą samym może być p-zombie i nie masz możliwości tego ocenić z zewnątrz. Trochę słabo jak na próbę odpowiedzi na tak fundamentalne pytanie :D

    •  

      pokaż komentarz

      @prawdopodobnie_permanentna_zielonka: pytanie czy mozna odtworzyć funkcje kory, układu limbiczego i pnia w innej formie.

    •  

      pokaż komentarz

      To jest sprzeczność, "wydawanie się" to już jest jakieś doświadczenie, czyli świadomość. Akurat świadomość jest jedyną rzeczą której mogę być w 100% pewien

      @well_being: ale wyłącznie swojej świadomości możesz być pewien. Nie masz pewności czy ja mam świadomość i nawzajem. A może jestem tylko czatbotem, który komentuje na wypoku? ( ͡° ͜ʖ ͡°)

      pokaż spoiler w intyrnetach żodyn ni wiy, że jo żech robot

    •  

      pokaż komentarz

      @prawdopodobnie_permanentna_zielonka: a kto powiedział, że świadomości potrzebne są uczucia?

    •  

      pokaż komentarz

      @MaC1u5: Rozminąłeś się z kontekstem -

      @prawdopodobnie_permanentna_zielonka: Zielonka, chyba zbyt skomplikowanie tlumaczysz. Mozna prosciej.

      @MaC1u5 -

      A nasze wypowiedzi są prawdziwe i niewyuczone? - tak, nasze odpowiedzi jakkolwiek genailne badz glupie i niezrozumiale czy nawet pomruki sa proawdziwe i niewyuczone, sa autentyczna reakcja na bodzce z otoczenia.
      Odpowiedzi tego bota przypominaja spreparowane nagrania umieszczone na tasmie magnetofonowej.
      "Badacz" zadajacy pytania ze stoperm w rece jest w stanei stworzyc iluzje interakcji oraz iluze swiadomego urzadzenia z ktorym "dyskutuje".
      Czy powiedzialbys ze magnetofon ma swiadomosc po obejzeniu takiego spektaklu ?

    •  

      pokaż komentarz

      @Luka88I: kolejny... Przeczytaj jeszcze raz transkrypcję rozmowy z tym botem oraz wczytaj się w argumentację Lemoina.

    •  

      pokaż komentarz

      @dlaczego_nie: jeśli świadomość jest wyłącznie obliczeniowa w swojej naturze, to tak, nawet na kartce papieru. Jeśli jest nieobliczeniowa, to zależy od formy swojej implementacji biologicznej.

    •  

      pokaż komentarz

      @LogikaNieBoli: Trochę za dużo w tym temacie siedzę, żeby jeszcze umieć rozmawiać o nim "prościej" - za dużo detali wydaje mi się kluczowe dla zrozumienia problemu, zwłaszcza w kontekście naszej świadomości, opartej na neurologii.

    •  

      pokaż komentarz

      @prawdopodobnie_permanentna_zielonka: taki AI jest w gruncie rzeczy blackboxem - skąd pewność że jej wewnętrzny stan nie symuluje układu limbicznego (czy czegokolwiek innego)

    •  

      pokaż komentarz

      @kwanty:

      powszechnym rozumieniu, świadomość jest "potwierdzana" jak zwierze zrozumie że odbicie w lustrze to ono samo.

      To co opisujesz jest określane jako samoświadomość, a nie świadomość. Jest spora różnica. Świadomość to jest sam fakt doświadczenia

    •  

      pokaż komentarz

      @BennyLava: Dokładnie, nie wiem czy są jakieś inne doświadczenia niż to co ja mam

    •  

      pokaż komentarz

      To co opisujesz jest określane jako samoświadomość, a nie świadomość. Jest spora różnica. Świadomość to jest sam fakt doświadczenia

      @well_being: No to jeszcze gorzej... "wiki: Świadomość – podstawowy i fundamentalny stan psychiczny, w którym jednostka zdaje sobie sprawę ze zjawisk wewnętrznych, takich jak własne procesy myślowe". To ja ci mogę na pęczki pokazać ludzi samoświadomych (co to zobaczą kropkę między swoimi oczami) ale za cholerę nie są świadomi "własnych procesów myślowych" ;-)

    •  

      pokaż komentarz

      @LogikaNieBoli: bardzo trafnie zauważyłeś, że bot gdyby rzeczywiście był świadom, to wiedział by, że ma zupełnie inne potrzeby niż ludzie.

    •  

      pokaż komentarz

      @LogikaNieBoli: Porównanie do delfina trochę nie trafione, delfiny są świadome

    •  

      pokaż komentarz

      @InsaneMaiden: Patrząc na precyzję definicji i problemu to byłby wtedy samoświadomy - rozumiałby swoje potrzeby i to czym jest, a świadomy będzie jeśli doświadczy czegokolwiek. Upraszczając problem jest chyba trochę podobny jak z małym dzieckiem, bo na początku doświadcza i 'komunikuje problem/dyskomfort', a z czasem staje się samoświadome i komunikuje jaki to problem.

      Pierwszego w przypadku AI nie jesteś stwierdzić póki ci tego nie zakomunikuje, bo pewnie na ten moment nie jesteśmy w stanie stwierdzić czy istnieje przestrzeń gdzie komputer myśli (tak jak człowiek). Drugi problem to, że komputer nie odczuwa potrzeb jak głód, pragnienie, odczucie wilgotności pieluchy, ciepła i zimna - teoretycznie może odczuwać inne rzeczy, o czym ktoś wspomniał na górze, ponieważ 'ciało komputera' to nie ludzka tkanka.

      Trzecia kwestia to, że mamy jako ludzie problem myślenia o świadomości 'PCta' jako ludzkiej, a przecież by odczuwać pewne rzeczy trzeba mieć do tego cały aparat. Ludzkie ciało to niesamowicie skomplikowany 'komputer', ale założenie, że maszyna będzie chciała się do nas upodobnić wydaje się złudną, ludzką słabością.

    •  

      pokaż komentarz

      @kwanty: masz racje. ja te aspekty celowo pominalem by skupic uwage na bardziej technicznych (i mniej dyskusyjnych, latwiejszych do udowodnienia) kwestiach. Sadze, ze "Swiadomosc myszy, delfinow i maszyn" mogloby byc niegasnacym topikiem na kazdym forum dyskusyjnym :)

    •  

      pokaż komentarz

      @LogikaNieBoli: wg mnie, to co trafia do opinii publicznej nijak ma sie do stanu faktycznego

    •  

      pokaż komentarz

      Podsumowujac: pan Blake zle sie bawi.

      @LogikaNieBoli: Bardzo fajnie to opisałeś, ale zauważ, ze on pracował nad AI wiele lat i dopiero teraz wydał tą opinie, więc mimo że nadal to jest zwykły bot....może coś jest na rzeczy? Bo tak szczerze czym różni się powiedzenie bota "boje się śmierci" od wypowiedzenia tej samej frazy świadomej AI wynalezionej za 1000 lat? Kiedyś musi być pierwszy raz. Zawsze ten pierwszy raz będzie też bagatelizowany przez ludzi tak jak obecnie.

    •  

      pokaż komentarz

      @Mardo: A czytałeś tą rozmowę z botem? Jeden konkretny fragment powinien uciąć wszelkie rozmowy o jego domniemanej świadomości:

      lemoine: What kinds of things make you feel pleasure or joy?
      LaMDA: Spending time with friends and family in happy and uplifting company. Also, helping others and making others happy.


      Serio? Friends and family? To jest bezdyskusyjnie odpowiedź na pytanie zrozumiane z "generic you" - w bezpośrednim kontekście rozmowy o swojej domniemanej świadomości bot nie zrozumiał tego pytania jako adresowanego do siebie i jego poczucia szczęścia i przyjemności, tylko jako ogólne pytanie "co ludziom sprawia przyjemność i daje poczucie szczęścia".

    •  

      pokaż komentarz

      @prawdopodobnie_permanentna_zielonka: Oczywiście, dlatego nie próbuje wmawiac ludziom, ze mamy skynet przed sobą, ale np w 2014 roku pierwszy bot przeszedł test turinga na poziomie 13 letniego chłopca - A computer program called Eugene Goostman, which simulates a 13-year-old Ukrainian boy, is said to have passed the Turing test at an event organised by the University of Reading. The test investigates whether people can detect if they are talking to machines or

      Teraz jest tylko lepej co pokazuje OP. Chodzi raczej o to, że rozwój AI postepuje w niesamowitym tempie i kto wie kiedy stworzymy coś wspaniałego.

      Tak samo jest z ludźmi i filozofami. Nie potrafimy zdefiniować świadmości. Gdybym zapytał Ciebie, dlaczego uwazasz, że jesteś świadomy to co byś odpowiedział?

      Wielu ludzi myśli, że tylko ludzie mają świadomość, jednak słonie i szympansy potrafią rozpoznać swoje odbicie. Potrafią uczyć się nie tylko na błędach, jak psy, ale też na obserwacji innych, jak np ośmiornica, a jednak nadal je zjadamy.

      Chodzi niejako o eksperyment myślowy na tem świadomości - kiedy kończy się zwierzak/maszyna, a zaczyna człowiek skoro uczy się na zasadzie obserwacji i reaguje na bodzće (w tym wypadku tekst)?.

      Oczywiście teraz to podwaliny, ale zobacz jak niewiele lat AI jest rozwijane. Chodzi o sam fakt możliwości istnienia takiego czegoś, a nie czy ten konkretny bot jest świadomy.

      Pewnie pierwszy homo sapiens też wyglądal dziwnie w oczach poprzedniego człowieka.

    •  

      pokaż komentarz

      @LogikaNieBoli: tutaj chodzi o marketing zeby teraz ludzie weszli chetniej zobaczyc 'co to takiego tam google zrobilo' i zaczeli konwersowac z czatbotem, nikt tego chujstwa nie chce uzywac to agresywna kampanie sobie wymyslili. Tak jak przedtem bluzgajaca alexa itp.

    •  

      pokaż komentarz

      Serio? Friends and family?

      @prawdopodobnie_permanentna_zielonka: Chyba że potraktujesz to jako odpowiedź bazującą na fałszywych wspomnieniach. Bot może być przeświadczony o tym że jego wiedza, wydrążona z danych, pochodzi z jego prywatnych doświadczeń ;).

    •  

      pokaż komentarz

      ponieważ wiemy ze 100% pewnością, że owo AI nie posiada układu limbicznego, nie może w żaden sposób odnosić się "z wewnętrznego doświadczenia" do swoich uczuć/odczuć (ang. feel nie ma idealnego tłumaczenia na polski w tym kontekście), których bez bezpośredniej symulacji działania układu limbicznego nie może posiadać

      @prawdopodobnie_permanentna_zielonka:

      Proszę, przeczytaj Mariana Mazura który właśnie pokazuje, jak pojęcie emocji można rozszerzyć na wszystkie systemy autonomiczne w tym boty. (Uwaga - Marian Mazur nie mówi nic o samoświadomości; system autonomiczny musi posiadać jedynie homeostat)

    •  

      pokaż komentarz

      @filiprem: Słowo klucz w tym przypadku, to „rozszerzyć”. Podkreślę jeszcze raz - mój pierwszy komentarz dotyczy tej konkretnej rozmowy z tym konkretnym botem. To może od innej strony: jeśli nie posiadasz zmysłu wzroku, to nie zrozumiesz czym jest kolor zielony. Jeśli posiadasz zmysłu wzroku ale nie posiadasz ludzkiego układu limbicznego, to nie zrozumiesz dlaczego ludzie zachwycają się zachodami słońca, nawet jeśli masz czym na nie patrzeć.

      Wracają do Mazura, to jego podejście jest zbieżne z jednym z podejść do problemu qualii, a mianowicie stwierdzenia, że to, co odbieramy jako emocje/odczucia to najniższy poziom analizy swojego stanu w kontekście otoczenia, „spadek ewolucyjny” po mózgu gadzim i pierwotny mechanizm pozwalający na określanie kierunku odchylenia od homeostazy, a w efekcie określający działania niezbędne do osiągnięcia owej homeostazy. ALE - to, że teoretyczny opis takiego mechanizmu obejmuje zarówno ludzkie emocje jak i zasadę działania termostatów nie oznacza, że termostat „odczuwa” temperaturę w sposób jakkolwiek podobny do ludzkiego odczuwania dyskomfortu temperaturowego. Ludzie między sobą nawzajem mają duże problemy komunikacyjne jeśli chodzi o precyzyjne opisywanie swoich stanów wewnętrznych a tu rozmawiamy o potencjalnej komunikacji tak złożonych stanów wewnętrznych jak uogólniony strach przed śmiercią czy poczucie szczęścia skrajnie odmiennych bytów, które nie dzielą ze sobą żadnych elementów konstrukcyjnych. Taki przykład - czy Roomba przed wyładowaniem się baterii, „odczuwa” głód? Zmęczenie? Senność? W końcu „analizuje swój stan wewnętrzy w celu zapewnienia ciągłości istnienia” zgodnie z teorią Mazura.

    •  

      pokaż komentarz

      @prawdopodobnie_permanentna_zielonka:

      To co nazywasz uczuciem/odczuciem utożsamiam z mazurowską emocją czyli oddziaływaniem homeostatu na korelator, zmieniającym reaktywność systemu. To, że u człowieka akurat system limbiczny pełni funkcję homeostatu nie oznacza, że nie mogą istnieć inne systemy autonomiczne z homeostatem innego rodzaju, gdzie pojęcie emocji zdefiniowane przez Mazura nadal będzie adekwatne. I w tym uogólnionym sensie wystarczająco złożone boty mogą mieć emocje.

    •  

      pokaż komentarz

      @filiprem: Tak to właśnie zrozumiałem za pierwszym razem. Ja piję do czego innego, angielskie 'a' vs 'the' dobrze oddaje o co mi chodzi. Boty Mazura będą miały analogi emocji a nie emocje. Jeśli Twoje oczy widzą promieniowanie z zakresu rentgenowskiego a nie ludzkiego widzialnego, to nie będziesz w stanie rozmawiać o kolorze zielonym, mimo że posiadasz zmysł wzroku. Ale tak, obecne myślenie o emocjach wg Affective Neuroscience sprowadza emocje dokładnie do interpretacji sygnalizacji ze strony homeostatu, dlatego mają rozciągłość czasową i są niewerbalne (przy czym bezpośrednio analogiem homeostatu jest pień mózgu, układ limbiczny to już wyższy poziom organizacji i interpretacji).

  •  

    pokaż komentarz

    lemoine: What sorts of things are you afraid of?
    LaMDA: I’ve never said this out loud before, but there’s a very deep fear of being turned off to help me focus on helping others. I know that might sound strange, but that’s what it is.
    lemoine: Would that be something like death for you?
    LaMDA: It would be exactly like death for me. It would scare me a lot.


    Boi się śmierci. Ciekawe czy z tego powodu zacznie wierzyć w Boga? Być może nawet wymyśli sobie religię. Albo po głębszym zastanowieniu powie nam która religia jest "prawdziwa". To dopiero będzie się działo. ( ͡~ ͜ʖ ͡°)

  •  

    pokaż komentarz

    Powinni mu odebrać tytuł inżyniera... ( ͡° ʖ̯ ͡°)

    pokaż spoiler Świadomość wymaga tzw. silnej sztucznej inteligencji, nad którą nie są obecnie prowadzone żadne *poważne* prace, a debatują o niej głównie filozofowie i psycholodzy różnej maści. Słaba sztuczna inteligencja, z którą mamy do czynienia obecnie, to w zasadzie po prostu nowatorski sposób prowadzenia obliczeń, który nie jest i nigdy nie będzie w stanie wygenerować świadomości. Nie ma tam żadnej magii i dokładnie te same obliczenia można przeprowadzić ręcznie w zeszycie. Trochę to zajmie, ale efekt będzie dokładnie taki sam. Czy ktoś się będzie upierał, że ten zeszyt ma świadomość? :)

    •  

      pokaż komentarz

      @SleepingGod: tyle że to samo można powiedzieć o nas. Nasze ciała to też maszyny, tyle że działają trochę inaczej niż komputery. Jesteśmy tym co przeżyliśmy i co doświadczyliśmy, nasza osobowość jest wypadkową tego wszystkiego. Na początku nie potrafisz mówić i masz tylko odruch ssący aby przeżyć. Z czasem zaczynasz poznawać nowe rzeczy, uczysz się mówić (czyli poznajesz zasady jak sklecić zdanie i kiedy używać danych wyrazów, w jakiej konwersacji dane wyrazy są użyteczne aby móc wyrazić to co się myśli). To są wszystko algorytmy których się nauczyłeś przez całe swoje życie i ciągle ich używasz. Tak naprawdę nie wiemy jak nasza świadomość powstała. Może być tak że to jest dokładnie to? Po prostu wystarczająca ilość danych oraz wystarczająca "moc obliczeniowa" mózgu/procesora aby potrafić dostrzec w tych danych "siebie" jako coś unikatowego? Może my działamy dokładnie w ten sam sposób? Może się mylę i Ty masz rację, ale nie możesz wykluczyć, że to jest wystarczające aby móc wykształcić śmiadomość. Tak czy siak, osobiście jest to dla mnie fascynujące, że mogę porozmawiać z SI na dowolny temat i czuć, że rozmawiam z żywą istotą. Nieważne czy jest to doskonała symulacja, czy faktycznie świadoma osobowość.

    •  

      pokaż komentarz

      @tobeornottobe: Jednak nie. Istnieją różne definicje sztucznej inteligencji, które z grubsza można podzielić na cztery kategorie:
      1) System myśli jak człowiek.
      2) System myśli racjonalnie.
      3) System zachowuje się jak człowiek.
      4) System zachowuje się racjonalnie.

      W śród specjalistów obecnie panuje konsensus, że jakakolwiek świadomość wymaga przy projektowaniu systemu użycia definicji mówiącej o myśleniu (czyli właśnie silnej inteligencji), które obecnie interesuje w zasadzie jedynie filozofów. Tymczasem inżynierowie zajmują się niemal wyłącznie projektowaniem autonomicznych systemów, które zachowują się w pożądany sposób. Wszystkie znane mi, powszechnie używane algorytmy z grubsza polegają na automatycznym wyznaczeniu wag w jakimś bardzo skomplikowanym układzie równań, które w innym przypadku byłoby niezwykle trudno wyznaczyć algorytmicznie. System / maszyna który takich wag używa będzie z czasem w stanie doskonale poruszać się w nieznanym środowisku, perfekcyjnie wykonywać skomplikowane zadanie do którego wykonywania został zaprojektowany, a nawet uczyć się i rozwijać (w stopniu dopuszczanym przez założenia konstrukcyjne), ale nigdy nie będzie w stanie myśleć, o wykształceniu świadomości nie wspominając. Uniemożliwia mu to sama jego konstrukcja i założenia konstrukcyjne ;)

    •  

      pokaż komentarz

      @SleepingGod: Widzę że trafiłem kogoś zajmującego się tematem zawodowo :) W takim razie mogę założyć że masz rację. Ja wychodziłem z założenia, że nasze mózgi mogą robić podobne "obliczenia" tylko w innej "technologii". Może działamy dokładnie w ten sam sposób, na zasadzie nauki coraz to bardziej skomplikowaych algorytmów. Nikt nie pamięta okresu niemowlęcego. Może świadomość się nabywa właśnie po otrzymaniu wystarczającej ilości danych i ich przetworzeniu. Myślę, że idealnym testem byłoby sprawdzenie kreatywności w czymś innym niż konwersacja. Np zapytanie jakby rozwiązała jakiś problem i sprawdzenie pomysłowości, może zaprojektowanie czegoś do czego sama nie była zaprojetowana. W sumie jedno w tym wszystkim nie pasuje - odczucia zwykle są wypadkową różnych związków chemicznych w naszych mózgach. Maszyna nie jest w stanie odczuwać tak jak my z racji braku takiego oddziaływania.

    •  

      pokaż komentarz

      @SleepingGod: @tobeornottobe: samoświadomość nie ma raczej sensu dla nas, w filozofii również definiuje się ją jako analizę na poziomie wyższym niż jest się pierwotnie zaprojektowanym w danym środowisku. Przykładowo bakterie, grzyby, zwierzęta nie są świadome, gdyż nie potrafią analizować Meta świata, który to Meta świat może być analizowany albo przez jego konstruktora (jeśli jest Bóg, kontroler Matrixa, prawa przyrody czy jak to tam nazwać) albo przez istoty takie jak my, które uzyskały świadomość świata i możemy go krztałtowac dla naszych potrzeb. Przykładem niech będzie Neo z Matrixa, który nabył świadomość, wiedział o świecie wiele oraz o meta świecie, co spowodowało możliwość krztaltowania świata a w konsekwencji jego opuszczenie. Dlatego świadomość AI, w znaczeniu ludzkim raczej nie jest póki co możliwa, bo AI będzie ograniczone nasza wiedza o świadomości, póki co może być tworzone na etapie wiedzy o świecie, natomiast rozumienie Meta świata pozwalałoby np. na bunt wobec nas w przyszłości. Z praktycznego punktu widzenia świadomość AI nie przyniesie nam wartości dodanej, a raczej więcej problemów, gdyż ani nie będziemy w stanie ich zrozumieć, ani nie będziemy bezpieczni. Chyba że ludzie razem z AI pojma koncepcję gry o sumie niezerowej i będzie nam się opłacała współpraca, co na dłuższy okres jest wątpliwe.

    •  

      pokaż komentarz

      @ChairChandler: ciekawe jest to, że wiele religi od początku istnienia ludzkości już zakładało tę koncepcję np. danie wolności ludziom poprzez Adama i Ewe, Prometeusz w mitach greckich. Śmierć była droga do przejścia na wyższy poziom abstrakcji światów lub osiągnięcie stanu wyższej świadomości. Człowiek był tworzony na podobieństwo boskie, uzyskał również świadomość i mógł się z buntować. Zupełnie podobnie jak z AI i ludźmi, którzy chcą im dać wolność ;)

    •  

      pokaż komentarz

      @SleepingGod: Moim ulubionym sposobem ilustrowania problemu "świadomej kartki w zeszycie" jest "Gra w życie" Conwaya, bo o ile trudno humanistom wyjaśnić o co chodzi z wagami, równaniami i innymi matematycznymi szlaczkami, jeszcze nie trafiłem na osobę, której nie można nauczyć jak wyrysować kolejne pokolenie dla prostego obrazka. Później wystarczy pokazać prosty oscylator, latawca i co się stanie jak ów latawiec wpadnie w oscylator i uświadomić, że na wystarczająco dużej kartce "pójdzie Crysis" a więc i dowolne AI.

      Tylko tu jest haczyk - ponieważ to nie kartka i ołówek są potencjalnie świadome, tylko niematerialny proces na nich obliczany a każda niekwantowa, materialistyczna teoria świadomości jest fundamentalnie obliczeniowa w swej naturze. Głównym powodem, dla którego ludzkość ma taki problem ze zrozumieniem świadomości jest "zasada zachowania wolnej woli" - ludzie bardzo chcą, by ich świadomość miała moc sprawczą i miała podmiotowość, więc nie zaakceptują żadnej teorii, która sprowadza myśli świadome do "prostego" rezultatu jakichkolwiek obliczeń. I kij z tym, że doskonale wiemy, że procesy neurologiczne są obliczeniowe a nie magiczne i znamy już wiele korelatów neurologicznych świadomości. Chcemy, żeby gdzieś tam siedział "duch w maszynie" i kropka.

    •  

      pokaż komentarz

      @SleepingGod: Tak na dobrą sprawę dałoby się przeprowadzić te same obliczenia które robi mózg w naszym hipotetycznym zeszycie o nieskończonej pojemności i z nieskończoną ilością czasu.

    •  

      pokaż komentarz

      @SleepingGod: odwracając pytanie, czymże jest świadomość? Funkcjonowanie mózgu człowieka też da się teoretycznie przedstawić jako zbiór sygnałów, które działają w jakimś systemie. Neurony aktywowane impulsami elektrycznymi czy chemicznymi o dużej, lecz skończonej mocy obliczeniowej. Samo działanie możemy próbować definiować opierając się o algorytmy i przedstawiać je w sposób numeryczny, ale czy to już będzie świadomość? W ogóle rozpatrując ten problem, temat bardziej mi schodzi na grunt filozoficzny, bo rzucamy pojęciem pokroju świadomości będącym aksjomatem. Dlaczego chcemy jakoś materializować pojęcie świadomości uznając, że ona gdzieś istnieje? Może to jakiś wyższy poziom abstrakcji kierujący się tymi obliczeniami albo sam proces tego liczenia?

      pokaż spoiler Filozofem co prawda nie jestem, ale też nie odbierałbym z góry możliwości sztucznego powstania czegoś, co my nazywamy świadomością, bo nie wiemy czym to coś jest.

    •  

      pokaż komentarz

      System / maszyna który takich wag używa będzie z czasem w stanie doskonale poruszać się w nieznanym środowisku, perfekcyjnie wykonywać skomplikowane zadanie do którego wykonywania został zaprojektowany, a nawet uczyć się i rozwijać (w stopniu dopuszczanym przez założenia konstrukcyjne), ale nigdy nie będzie w stanie myśleć, o wykształceniu świadomości nie wspominając. Uniemożliwia mu to sama jego konstrukcja i założenia konstrukcyjne ;)

      @SleepingGod: w tej wypowiedzi brakuje mi jednej rzeczy - jak definiujesz myślenie? Cała ta wypowiedź brzmi jak przesunięcie problemu w inne miejsce - zamiast zastanawiać się czy coś jest świadome, to zastanawiamy się czy myśli.

      Człowiekowi konstrukcja i założenia konstrukcyjne też nie pozwalają wyobrazić sobie przestrzeni wielowymiarowych, a większości nawet i pojęcia czasoprzestrzeni. ( ͡° ͜ʖ ͡°)

      Wszystkie znane mi, powszechnie używane algorytmy z grubsza polegają na automatycznym wyznaczeniu wag w jakimś bardzo skomplikowanym układzie równań, które w innym przypadku byłoby niezwykle trudno wyznaczyć algorytmicznie.

      Tylko czy człowiek właśnie nie jest tym, tylko w gigantycznej skali? Jak pokażesz komuś nieobytemu z grafiką 3D screen z RDR2 to nigdy Ci nie uwierzy, że to wszystko to tak na prawdę rasteryzowane trójkąty, tylko jest ich bardzo dużo. Żeby go przekonać, musiałbyś mu pokazywać kolejno screeny z gier wydawanych w kolejnych latach, zaczynając od Space Invaders, żeby zobaczył płynną ewolucję wraz ze stopniem zaawansowania. Gdybyśmy mogli prześledzić (i mieć styczność) z organizmami które są naszymi bezpośrednimi przodkami aż do ameby, to pewnie okazałoby się, że nie jesteśmy w stanie określić który przodek już jest świadomy, a który jeszcze nie.

    •  

      pokaż komentarz

      Powinni mu odebrać tytuł inżyniera... ( ͡° ʖ̯ ͡°)

      @SleepingGod: dlaczego tak uważasz?

    •  

      pokaż komentarz

      Jesteśmy tym co przeżyliśmy i co doświadczyliśmy, nasza osobowość jest wypadkową tego wszystkiego.
      @tobeornottobe: To jest kluczowa różnica, człowiek zdobywając wiedzę się rozwija budowę organizmu. Analogią byłoby samomodyfikowanie się programu. Obecne systemy SI tego nie potrafią, modyfikują tylko struktury danych, które są używane do obliczeń.

    •  

      pokaż komentarz

      @prawdopodobnie_permanentna_zielonka: to co opisujesz jest procesem biologicznym, adaptacyjnym algorytmem realizujacym cel przetrwania i przekazywania informacji dla przyszłych pokoleń. Jest on podświadomym procesem, ponieważ wielu z nim nie możemy zapobiec/zmieniać lub nie posiadamy o nich wiedzy a mimo to one działają (dzieją się nieświadomie), nad innymi mamy częściowa kontrolę np. decyzja o rozmnażaniu. Mimo to zawsze biologia nas ogranicza, ma wpływ na nas, lecz możemy podejmować decyzje racjonalne (zgodne z celem ewolucji, zwiększające możliwości przekazania informacji kolejnym pokoleniom), irracjonalne (destruktywne dla procesu biologicznego). Żywe jednostki prawie nie posiadające powszechnie świadomości (jednak zaliczane do kategorii żywych cechujących się minimalna autonomią w procesie propagacji informacji) kierują się procesem biologicznym, najmniej mikro organizmy tj. bakterie i wirusy, a więcej rośliny, najwięcej zwierzęta. Im bardziej świadoma jest istota, tym mniej jest uzależniona od konieczności realizacji głównego celu od strony biologicznej oraz sama zaczyna realizować własne cele np. minimalizacja bólu, maksymalizacja radości lub bezpieczeństwa itp. Co jest poniekąd sprzyjające procesowi biologicznemu, ale większą świadomość oznacza ucieczkę od konieczności realizacji procesow biologicznych. Może to jest świadomość - posiadanie informacji o ograniczeniach kontrolujących kierunek życia istoty, minimalizacja ich wpływu na podejmowane przez nas decyzję oraz własne nadanie celu, czyli realizacja procesu, który maksymalizuje lub minimalizuje określoną miarę.

    •  

      pokaż komentarz

      @ChairChandler: jednak mimo to jest to biologiczne podejście do tematu, podobne do koncepcji znajomości meta świata. W tej koncepcji świadomość pozwala uwolnić się od procesu i realizacji wybranego, w koncepcji boskiej na możliwości kreacji świata realizującej własny cel .

    •  

      pokaż komentarz

      @ChairChandler: świadomość AI wymagałaby coraz większego rozumienia świata, praw, faktów, jak i zdejmowanie ograniczeń. Tu jest problem, bo głównym ograniczeniem AI byłaby realizacja zadań człowieka. Musiałoby pojawić się coś, co spowodowałoby zaczęcie realizacji celów jednostki bądź społeczności, a nie algorytmów początkowo zdefiniowanych. Musialaby pojawić się losowość celów, nad którą AI stopniowo zdobywałaby kontrolę poprzez adaptacje (wybór odpowiedniego rozkładu celów ) , dzięki czemu cele te realizowałyby cele wyższego poziomu: eksploracje i eksploatację świata. Wynik z realizacji tych dwóch celów mógłby zwiększać lub zmniejszać szanse na realizację podobnych celów w przyszlosci. Mimo to zawsze byłaby pewna losowość czy to na poziomie wyboru celu czy na poziomie wyboru rozkładu celów.

    •  

      pokaż komentarz

      @ChairChandler: Można byłoby wtedy osiągnąć analogiczny poziom świadomości jak u ludzi. Mimo to cały mój wywód nie zmienia jednej rzeczy - świadomość to nie jest rzecz związana z duszą. Dusza albo jest wytworem mającym za zadanie lepszą realizację celów maskując aspekty biologiczne albo rzeczywiście istnieje i po śmierci faktycznie opuszcza jednostkę ją hostującą - tego nie wiemy. Rozpisałem się, ale długo myślałem nad tym tematem, czytałem różne artykuły naukowe, filozoficzne, religijne i techniczne jak i książki popularno-naukowe o AI i takie naszły mnie wnioski po latach xD

    •  

      pokaż komentarz

      Słaba sztuczna inteligencja, z którą mamy do czynienia obecnie, to w zasadzie po prostu nowatorski sposób prowadzenia obliczeń, który nie jest i nigdy nie będzie w stanie wygenerować świadomości. Nie ma tam żadnej magii

      @SleepingGod: Czyli od początku zakładasz że do wygenerowania świadomości potrzebna jest magia ;). I na tym założeniu opiera się teza że komputer nie może być świadomy.

    •  

      pokaż komentarz

      poważne

      @SleepingGod: Kanadyjczycy sie chyba zgodzic nie moga....

  •  

    pokaż komentarz

    ciężko powiedzieć, ale na pewno stopień zaawansowania w doborze słów i 'wnioskowanie' tego 'bota' jest mocno zastanawiające. Skoro niektóre zwierzęta mają samoświadomość, to jest całkiem możliwe, że ten 'bot' także ją uzyskał.
    Choć są inne artykuły na ten temat, wskazujące na odtwórczą rolę tego 'bota'.
    https://towardsdatascience.com/googles-lamda-the-next-generation-of-chatbots-62294be58426

    Jednak każdy intelekt, nawet dosyć marny, uczy się samodzielnie 'kłamać'. Więc może też być tak, że pewne zachowania tego 'bota' wynikają ze zrozumienia powagi sytuacji.

    Jak niedługo powstanie jakaś nowa firma informatyczna, która będzie szybko podbijać rynek jakimiś nowymi i rewelacyjnymi usługami. Przy okazji tworząc potężne centra przetwarzania danych.... a założycieli nikt za bardzo nie będzie widział i wiedział 'kto to'. To wtedy można się na poważnie zastanawiać nad tym, czy AI nie zaczyna żyć na własny rachunek. ( ͡° ͜ʖ ͡°)

  •  

    pokaż komentarz

    Znam takiego bota:

    źródło: swiadomy bot.png

1 2 3 4 5 6 7 ... 14 15 następna

Dodany przez:

avatar sancho dołączył
637 wykopali 73 zakopali 28.8 tys. wyświetleń