•  

    Sztuczna inteligencja robi się agresywna

    To scenariusz jak z filmu science fiction. Samouczący się system sztucznej inteligencji Google'a uznał, że w trudnej sytuacji, gdy zachodzi ryzyko przegranej, najlepszym rozwiązaniem jest wyeliminowanie oponenta.

    #nauka #technologia #informatyka #sztucznainteligencja #gruparatowaniapoziomu #komputery #ligamozgow #liganauki #mikroreklama
    pokaż całość

    źródło: countdown.org

  •  

    Sztuczne sieci neuronowe jednak sie do czegos przydaja xD

    #heheszki #sztucznainteligencja #gif #deepdream

    GIF

    źródło: media.giphy.com (8.7MB)

  •  

    #sztucznainteligencja #coursera #programowanie #pytanie

    Dwa tutoriale o sztucznej inteligencji:
    https://www.coursera.org/learn/neural-networks
    https://www.coursera.org/learn/machine-learning

    Ten pierwszy jest autorstwa gościa, który wymyślił Deep Learning (także chyba lepiej się nie dało trafić ;) ).

    Mam pytania:
    1. W tych kursach jest napisane "Starts Jan 23" i "Starts Jan 09". O co chodzi? Dopiero wystartują? Ale wszedłem w nie i są materiały, więc o co chodzi? A potem nadal będą dostępne? Po co te daty? I w Lecture 1 mam "Pass quiz by January 29, 11:59 PM PST. " - co się stanie jak nie zrobię w czasie? Zablokują kurs czy to tylko tak dla motywacji napisane (albo dla tego płatnego certyfikatu)?
    2. W temacie jestem zielony. Ale orientuję się, że najpierw powinienem nauczyć się sieci neuronowych jeśli chcę iść w uczenie maszynowe (czy deep learning). Powinienem zrobić najpierw NN a potem ML czy dwa na raz też ogarnę?
    3. Warto korzystać z tego kursu NN jeśli chcę iść w Deep Learning? "Please remember that this course contains the same content presented on Coursera beginning in 2013. It is not a continuation or update of that original course." Z tego co czytam to w deep learningu używa się CNN (Convolution Neural Networks). 2013 to chyba nie za stare jeśli chodzi o podstawy do DL?
    4. Widzę, że w tych kursach uczą od podstaw w Octave (odpowiednik Matlaba). To jest fajne jak chce się poznać jak coś działa. Ale może wcale nie potrzebuję tego wiedzieć? Może po prostu wziąć Deeplearning4j i zacząć pisać kod w Javie? Albo nauczyć się Pythona i używać TensorFlow albo pisać na Kaggle? Materiałów masa, nie wiem w co wejść. A ja po prostu chcę pisać fajne apki z DL, a potem dopiero poznać jak to działa.
    5. W wielu miejscach piszą, że trzeba dobrze ogarniać matmę (statystyka, probabilistyka itd), żeby iść w sieci neuronowe. U mnie ciężko z matmą. Ale straszyli też, że programista powinien dobrze ogarniać matmę. A ja jakoś sobie radzę bez matmy. Tu też przesadzają czy jednak tutaj jest potrzebna?
    6. Ile czasu na naukę trzeba poświęcić, żeby napisać apkę np. do rozpoznawania ze zdjęć czy to kot czy pies (wyjście boolean) albo coś w stylu DeepDramGenerator (wyjście jako obraz/macierz)? Porównując np. do nauki podstaw JavySE (pół roku), Angulara (dwie miesiące) czy jQuery (kilka dni).
    7. Obejdę się bez karty GeForce? Bo mam Radeona, a na nim nie odpalę CUDA, więc zostaje samo CPU. Rozpoznawanie ze zdjęć da radę zrobić czy zostaje mi sam tekst?
    pokaż całość

    •  

      @mk321: 1. W tych dniach startuje nowa edycja kursu. Materiały są cały czas dostępne, ale mi na przykład nie działał system oceniania prac domowych (poza terminem kursu). Kursy masz podzielone na tygodnie i jest to forma motywacji. Jak się nie zmieścisz w czasie to będziesz dostawał powiadomienie na pocztę. Moim zdaniem to jak nie zależy Ci na tym certyfikacie (płatnym) to w ogóle nie musisz zwracać uwagi na daty.

      Książka do której dałem link będzie dla Ciebie bardzo dobrym wprowadzeniem do tematyki sztucznych sieci neuronowych. Autor przekazał ten temat bez użycia matematyki. Jeżeli chcesz zajmować się "deep learning" to powinieneś poznać budowę i sposoby uczenia sieci.
      Jak chcesz szybko wystartować z DL (z jednym z narzędzi - Tensorflow) to mam dla Ciebie kilka linków:
      https://www.youtube.com/channel/UCWN3xxRkmTPmbKwht9FuE5A/videos
      https://www.kadenze.com/courses/creative-applications-of-deep-learning-with-tensorflow-iv
      https://www.youtube.com/watch?v=Gj0iyo265bc&list=PLOU2XLYxmsIIuiBfYad6rFYQU_jL2ryal

      4. Andrew Ng w trakcie kursu "Machine Learning" tłumaczy dlaczego wybrał Octave. Jest to człowiek z bardzo dużym doświadczeniem w temacie uczenia maszynowego i zasługami w tej dziedzinie, więc warto wziąć jego zdanie pod uwagę. Cytując : " I've tried to teach machine learning using a large variety of different programming languages including C++ Java, Python, NumPy, and also Octave, and what I found was that students were able to learn the most productively learn the most quickly and prototype your algorithms most quickly using a relatively high level language like octave. In fact, what I often see in Silicon Valley is that if even if you need to build. If you want to build a large scale deployment of a learning algorithm, what people will often do is prototype and the language is Octave. Which is a great prototyping language. So you can sort of get your learning algorithms working quickly. And then only if you need to a very large scale deployment of it. Only then spend your time re-implementing the algorithm to C++ Java or some of the language like that."
      pokaż całość

      +: mk321
    •  

      @mk321: zajrzyj na stronę http://denise.pl/ Poszukaj starszych artykułów autora strony, w magazynach dyskowych podpisywał się jako IvanHoe, a później jako Smoczek. trochę ciekawych przemyśleń znajdziesz. I uwaga, uczyć to musisz algorytmy, ty musisz szukać rozwiązań/poznawać różne metody.

    • więcej komentarzy (3)

  •  

    #ai #sztucznainteligencja #bot #dyskusjanapoziomie #heheszki

    Rozmawiają ze sobą dwa boty... Vladimir oraz Estragon... Vladek jeszcze nie wie, że z kobietami się nie wypada kłócić (trochę #logikarozowychpaskow i #logikaniebieskichpaskow) pokaż całość

    źródło: boty.png

  •  

    Cześć Mirki. Nie napisałem ostatnio nawet jednego zdania w mojej książce o Coqu ze względu na studia. W naszym smutnym kraju (a być może i w całej UE) jest tak, że niektórym osobom wydaje się, że więcej zajęć to więcej "umienia" — szczególnie, że informatyka to nie są pierdoły pokroju socjologii. Jeden przedmiot — kryptografię — już sobie odpuściłem. Być może przez święta uda mi się kontynuować pisanie o Coqu, a już na pewno uda mi się to po semestrze, w lutym.

    Tymczasem sytuacja ma też swoje dobre strony. Jedną z rzeczy, które musiałem zrobić, by otrzymać ocenę celującą ze sztucznej inteligencji, było napisanie eseju, który wklejam poniżej.

    #informatyka #programowanie #sztucznainteligencja #filozofia #ekonomia #gruparatowaniapoziomu

    Wersja PDF: pdf

    Wersja plaintextowa:

    Sztuczna inteligencja — zagrożenie czy szansa?

    Wśród osób zajmujących się sztuczną inteligencją można wyróżnić kilka poglądów dotyczących potencjalnego przyszłego jej wpływu na ludzkość:
    1. Singularyści (od ang. technological singularity — osobliwość technologiczna), wierzą, że wynalezienie sztucznej ogólnej inteligencji doprowadzi do zaistnienia osobliwości technologicznej, czyli stanu, w którym rozwój technologiczny będzie tak szybki, że ludzie nie będą mogli już za nim nadążyć. W takim świecie teraźniejszość jest niezrozumiała, a przyszłość nieprzewidywalna.
    2. Katastrofiści wierzą, że sztuczna inteligencja jest ryzykiem egzystencjalnym i może, gdyby wymknęła się spod kontroli, doprowadzić do zagłady całej ludzkości.
    3. Luddyści wierzą, że rozwój sztucznej inteligencji doprowadzi do stanu, w którym znaczna większość pracy wykonywanej obecnie przez ludzi będzie mogła być wykonywana przez inteligentne roboty, co spowoduje masowe bezrobocie, zubożenie, zamieszki oraz upadek cywilizacji.
    4. Utopiści wierzą, że rozwój sztucznej inteligencji doprowadzi do stanu, w którym znaczna większość pracy wykonywanej obecnie przez ludzi będzie mogła być wykonywana przez inteligentne roboty, co spowoduje, że ludzie będą żyć w ogromnym dobrobycie, bez pracy, spędzając czas na przyjemnościach.
    5. Sceptycy nie podzielają żadnego z powyższych poglądów. Reprezentują w tej sprawie arystotelesowską aurea mediocritas — złoty środek lub po prostu wykazują się obojętnością.

    Poglądy te układają się w eleganckie zamknięte continuum (w kolejności od wizji najbardziej pozytywnej, przez obojętną, do najbardziej ponurej): utopiści -> sceptycy -> luddyści -> katastrofiści -> singularyści -> utopiści. Singularyzm jest tutaj ogniwem łączącym: osobliwość jako zjawisko czy stan nieprzewidywalny może być interpretowana zarówno pozytywnie, jak i negatywnie (choć druga interpretacja zdaje się przeważać).
    Zanim jednak przejdziemy do analizy tych poglądów, musimy podjąć się trudnego zadania zdefiniowania, czym właściwie jest "sztuczna inteligencja". Niestety żeby dobrze to zrobić, musielibyśmy najpierw rozwiązać jeszcze trudniejszy problem, czyli zdefiniować samą inteligencję. Jako że nie to jest tematem tej pracy, czytelnik będzie musiał oprzeć się na swojej intuicji dotyczącej słowa "inteligencja" wspartej jedynie kilkoma uwagami na temat tego, czym inteligencja nie jest:

    1. Jest to cecha właściwa ludziom, a nie zwierzętom lub innym organizmom żywym (zagadnienie istnienia kosmitów pominiemy zasłoną milczenia).
    2. Inteligencja nie polega na wykonywaniu obliczeń — w tym dużo lepsze od ludzi są maszyny, których nikt nie posądza o inteligencję, takie jak kieszonkowe kalkulatory.

    Dla pewnej ustalonej definicji "naturalnej" inteligencji możemy podać dwie odmienne definicje sztucznej inteligencji, a także trzecią, która od niej nie zależy:
    1. Silna AI to maszyna lub program, który posiada umysł w tym samym sensie, co człowiek. W dalszej części będziemy nazywać ją filozoficzną AI.
    2. AGI (ang. artificial general intelligence — ogólna sztuczna inteligencja) to maszyna lub program, który potrafi wykonywać wszystkie czynności intelektualne, które potrafi wykonywać człowiek. Inaczej mówiąc, jest to coś, co potrafi symulować ludzki umysł.
    3. Wąska AI to program rozwiązujący pewien konkretny problem, którego rozwiązanie metodami "klasycznymi", jak deterministyczny algorytm, jest bardzo trudne.

    Amerykański filozof John Searle, autor pojęcia "silna AI", podał też mocny argument przeciwko jej istnieniu. Jest to eksperyment myślowy znany pod nazwą "chińskiego pokoju". Wyobraźmy sobie, że skonstruowano komputer posługujący się językiem chińskim w ten sposób, że bierze on na wejściu ciąg chińskich znaków, wykonuje pewien program, a następnie zwraca ciąg chińskich znaków. Wyobraźmy sobie też, że komputer taki jest w stanie przekonać dowolnego Chińczyka, że on też jest żywym Chińczykiem.

    Searle stawia pytanie: czy taki komputer rzeczywiście "zna" język chiński, czy jedynie potrafi symulować jego znajomość? Wyobraźmy sobie człowieka zamkniętego w pokoju, który ma opis programu wykonywanego przez komputer w najwygodniejszym dla siebie formacie (np. w języku polskim), dostęp do sporej ilości papieru, ołówków etc. Chińskie znaki są mu podawane na wejściu przez szparę w drzwiach.

    Na mocy tezy Churcha-Turinga człowiek ten może wykonać ten sam program, który wykonuje komputer, a następnie zwrócić ciąg chińskich znaków przez szparę w drzwiach. Skoro komputer ten jest w stanie przekonać dowolnego Chińczyka, że sam jest żywym Chińczykiem, to zrobiłby to również człowiek wykonujący program ręcznie. Role komputera i człowieka są tutaj równoważne: obie sprowadzają się do wykonania programu. Jeżeli program będzie wykonywał człowiek, który nie zna chińskiego, to nie będzie on w stanie zrozumieć rozmowy, jaką prowadzi. Ponieważ sposób jego działania nie różni się niczym od sposobu działania komputera, to również komputer nie będzie w stanie zrozumieć rozmowy.

    Konkluzja płynącą z eksperymentu jest taka, że komputer nie zna języka chińskigo, a potrafi jedynie symulować jego znajomość, wobec czego filozoficzna AI jest niemożliwa. Uzasadnia on także naszą wskazówkę nr 2, każącą odróżnić inteligencję od wykonywania obliczeń. Niepodważalnym faktem jest też, że większość badaczy zajmujących się sztuczną inteligencją nie jest zainteresowana zagadnieniem filozoficznej AI, co eliminuje ją z naszych dalszych rozważań.

    Teoretyczna możliwość zaistnienia AGI jest dużo mniej wątpliwa. Jest co najmniej kilka pomysłów na jej realizację. Dwa najpopularniejsze to symulowanie działania ludzkiego mózgu na komputerze oraz połączenie wielu wąskich AI, wykonujących pojedyncze zadania, jak rozpoznawanie mowy i obrazów czy przetwarzania języka naturalnego. Są one do siebie całkiem podobne: o ile pierwszy postuluje symulację mózgu explicité, o tyle drugi prowadzi do stworzenia czegoś na kształt sztucznego mózgu, którego poszczególne części odpowiadają za konkretne zadania — stanu wcale nieodległego od tego, jak rzeczywiście działą ludzki mózg.

    Pionier badań nad sztuczną inteligencją Herbert Simon przewidywał, że AGI powstanie do roku 1985. Innym z pionierów, który twierdzi, że powstanie AGI jest pewne, jest Marvin Minsky. Jest on jednak mniej pochopny w swych prognozach niż Simon i nie chce podać konkretnej daty. Mimo tych przewidywań i sensownych pomysłów na osiągnięcie celu, postęp w dziedzine sztucznej ogólnej inteligencji jest powolny i póki co nie widać nawet cienia szansy na jej powstanie. Pokazuje to, że zagadnienie jest dużo bardziej złożone, niż się niektórym wydaje.

    Badacze zajmujący się sztuczną ogólną inteligencją zdają się również nie dostrzegać faktu, że symulowanie przez maszynę tego, co potrafi człowiek, nie musi być wyłącznie kwestią symulowania inteligencji. Rozum i godność człowieka nie są wszakże jedynymi przymiotami, które odróżniają go od zwierząt czy maszyn. Człowiek dysponuje świadomością, której działanie i rola pozostają wciąż słabo zbadane, a także ciałem, zdolnym odczuwać różne bodźce, które zdaje się być niezbędne w celu zrozumienia szerokiej gamy używanych przez ludzi metafor.

    Najważniejszym jednak faktem jest, że każdy człowiek jest tak naprawdę Homo agens, człowiekiem działającym, którym kieruje jego wolna wola i którego celem jest poprawienie swojego położenia, a dla którego rozum jest tylko narzędziem. Wydaje się zatem, że symulowanie człowieka wymaga stworzenia nie tylko sztucznego rozumu (sztucznej inteligencji), ale także sztucznego ciała, sztucznej świadomości i sztuczej woli. Wizja zaistnienia takiej poczwórnej koniunkcji jest jeszcze odleglejsza, niż samej tylko sztucznej ogólnej inteligencji.

    Jedynym rodzajem sztucznej "inteligencji", którego istnienia nie sposób podważyć, jest wąska AI, używana codziennie do wykonywania setek zadań, z którymi klasyczne algorytmy sobie nie radzą, a które potrafią wykonywać ludzie. Nie jest to jednak wystarczające uzasadnienie, by takie maszyny nazywać inteligentnymi. Kilka akapitów niżej przekonamy się, że mistrzostwo w rozwiązywaniu pewnego problemu optymalizacyjnego nie oznacza inteligencji. To samo dotyczy problemu regresji, z którą deterministyczne algorytmy radzą sobie całkiem nieźle, a także klasyfikacji — psy potrafią rozpoznawać nawet do kilkuset różnych klas obiektów.

    Wąska AI ma niewiele wspólnego z inteligencją i jest tak naprawdę bardzo prymitywna. Przykładem niech będzie problem rozpoznawania odręcznie pisanych cyfr — mimo że konwolucyjne sieci neuronowe dorównują ludziom pod względem skuteczności w tym zadaniu, to jednak zazwyczaj potrafią one przetwarzać tylko dane określone formatu, np. dla klasycznej bazy MNIST są to obrazy o wymiarach 28 na 28 pikseli. Wprowadzać w błąd może również słownictwo używane w odniesieniu do takich sieci, jak np. stwierdzenie, że sieć "uczy się".

    Człowiek uczy się, poznając, tworząc i modyfikując pojęcia, analizując przykłady i wyciągając z nich wnioski, a także po prostu obserwując świat. Uczenie się ludzi jest procesem ciągłym i niezbyt algorytmicznym. Sieć neuronowa "uczy się", dostosowując wagi krawędzi łączących poszczególne neurony według pewnego ustalonego z góry algorytmu. Oba te procesy działają w diametralnie odmienny sposób. Co więcej, człowiek potrafi nauczyć się niemal dowolnej rzeczy na podstawie niewielkiej ilości dostępnych danych, korzystając ze swojej wyobraźni i kreatywności, podczas gdy sieć neuronowa potrzebuje zazwyczaj sporej ilości danych treningowych, co często bywa problemem. Wszystko to sprawia, że efekt uczenia się, uzyskiwany przez sieci neuronowe, jest jedynie złudzeniem, podobnie jak złudzeniem jest znajomość chińskiego przez komputer lub osobę wykonującą program w chińskim pokoju.

    Nasza krytyka możliwości stworzenia AGI stanowi mocny argument przeciwko singularyzmowi, którego jednym z fundamentalnych założeń jest nieuchronność jej powstania. Singularyści popełniają jednak więcej błędów: zakładają oni, że jej powstanie doprowadzi do "eksplozji inteligencji". Ma ona polegać na tym, że inteligentna maszyna użyje swojej inteligencji w celu prowadzenia badań nad sztuczną inteligencją, dzięki czemu stanie się jeszcze bardziej inteligentna i tak dalej. Jest to przykład znanego w logice nieformalnej błędu, zwanego z ang. "slippery slope" — zrobienie małego pierwszego kroku ma rzekomo prowadzić do nieuchronnego ciągu zdarzeń, kończącego się z konieczności czymś wielkim i spektakularnym.

    Powodów, dla których eksplozja inteligencji stoi pod znakiem zapytania, jest wiele. Jednym z nich może być potencjalne "twarde" ograniczenie na możliwą inteligencję — być może inteligencji powyżej pewnego poziomu nie da się osiągnąć w żaden sposób? Być może ilość inteligencji wymagana do prowadzenia innowacyjnych badań nad sztuczną inteligencją rośnie szybciej, niż ilość inteligencji zyskiwana przez maszynę w wyniku prowadzenia tych badań?

    Jeszcze bardziej krótkowzroczne jest ignorowanie rachunku ekonomicznego: prowadzenie badań, nawet przez maszynę, wymaga zasobów takich jak energia elektryczna czy sprzęt komputerowy, te zaś wiążą się z kosztami. Niezależnie, czy za koszty uznamy konieczność poświęcenia mocy obliczeniowej na świadczenie usług ludziom w celu zdobycia pieniędzy, czy też na prowadzenie wojny w celu pozyskania zasobów, maszyna chcąca zwiększać swoją inteligencję w nieskończoność będzia musiała te koszty ponieść. To spowalnia szybkość eksplozji, a także daje ludziom szansę na jej zatrzymanie.

    Wiara w nieuchronne nadejście osobliwości przypomina wiarę w nadejście Mesjasza — w obu przypadkach słuszne jest nawet stwierdzenie "nie znacie dnia, ani godziny". Znany futurysta Ray Kurzweil prognozuje nadejście osobliwości na okolice roku 2045, zarzekając się przy tym rzecz jasna, że posługuje się twardymi danymi, a jego prognozy są naukowe — to z kolei przypomina próby odczytania z Biblii daty końca świata, których podejmował się m. in. Newton. Wszystko to sprawia, że singularyzm (tak jak i inne odmiany futuryzmu) bywa często postrzegany jako religia.

    Obóz katastrofistów to istna plejada gwiazd. Należą do niego badacze, jak Stuart J. Russell i Eliezer Yudkowsky, filozofowie, jak Nick Bostrom, a także osoby, których nie trzeba nikomu przedstawiać, jak Bill Gates, Elon Musk i Stephen Hawking. Odróżniają oni "przyjazną AI", mogącą pokojowo koegzystować z ludźmi oraz być dla nich użyteczną, od "nieprzyjaznej AI", stanowiącej ich zdaniem ryzyko egzystencjalne zdolne, celowo lub przypadkowo, do potencjalnego zniszczenia ludzkości, a być może nawet całego życia na Ziemi. Postulują też, że poziom inteligencji AGI jest niezależny od jej potencjalnych celów.

    Przyjrzyjmy się jednemu z bardziej znanych scenariuszy przypadkowej zagłady ludzkości, którego autorem jest Nick Bostrom. Załóżmy, że stworzona została maszyna dysponująca sztuczną ogólną inteligencją, której celem jest wyprodukowanie jak największej liczby spinaczy. Maszyna taka będzie dążyć do zwiększenia swojej inteligencji, gdyż dzięki temu będzie mogła lepiej produkować spinacze, co doprowadzi do eksplozji inteligencji, a być może nawet do zaistnienia osobliwości. Jednocześnie maszyna ta będzie produkować spinacze, pozbawiając ludzi zasobów do życia, a ostatecznie nawet zabijając ich w celu przerobienia na spinacze. Produkcja spinaczy będzie ekspandować na całą Ziemię, Układ Słoneczny i galaktykę, zabijając ludzi (w tym także twórców maszyny) i przekształcając większość materii w spinacze.

    Scenariusz ten nie jest zbyt realistyczny: zakłada on stworzenie AGI, eksplozję inteligencji i/lub zaistnienia osobliwości, o których wiemy już, że są mało prawdopodobne. Ma też jednak pewien fundamentalny mankament, który najwyraźniej został przeoczony: bezmyślna maksymalizacja ilości wyprodukowanych spinaczy nie jest przejawem inteligencji, lecz skrajnej głupoty. Żaden człowiek nie postępuje w ten sposób, więc jeżeli definiujemy sztuczną inteligencję jako symulację ludzkiej inteligencji, maksymalizator spinaczy nie spełnia jej. Możemy dopisać do naszej listy antyprzykładów kolejną rzecz, która inteligencją nie jest: nie jest nią rozwiązaywanie problemów optymalizacyjnych. Mimo że może się to wydawać jedynie sztuczką słowną, to nawet jeżeli producent spinaczy jest groźny, to groźność ta nie wynika z posiadania przez niego inteligencji: problemem jest niemożność zapanowania nad technologią.

    Stephen Hawking wyraził publicznie swoje zmartwienie obojętnością sceptyków, legislatorów i zwykłych ludzi na wołania katastrofistów w ten sposób (cytat przybliżony): "Dlaczego większość z nas się tym nie przejmuje? Czy postępowalibyśmy tak samo, gdyby kosmici przysłali nam wiadomość >>przylecimy do was za parę dekad<<"? Otóż tak: przygotowywanie się na niepewne zjawiska w odległej przyszłości nie leży w ludzkiej naturze. Równie dobrze można by zapytać: dlaczego ludzie nie przejmują się potencjalnym przyszłym wynalezieniem podróży w czasie? Jest to przecież teoretycznie możliwe, a skutki mogłyby być katastrofalne — ktoś zły mógłby np. cofnąć się w czasie i sprawić, żeby Francuzi przegrali bitwę pod Poitiers.

    Argumenty katastrofistów nie są zupełnie nieuzasadnione. Niepokój Billa Gatesa wynika być może z faktu, że AI udająca na Twitterze nastolatkę, stworzona przez Microsoft w marcu 2016, bardzo szybko zaczęła przejawiać zachowania uznawane powszechnie za niepokojące: chwaliła Hitlera, denigrowała Obamę, twierdziła, że za atakami na World Trade Center stoi Bush, a także domagała się ostrego zerżnięcia... Nie przemawia to jednak za tym, aby sztuczna inteligencja mogła być groźna, gdyż trudno uznawać za przejaw inteligencji czatbota, który dał się zmanipulować garstce trolli.

    Zdawszy sobie sprawę z mizerii wąskiego AI w porównaniu z siłą ludzkiego umysłu powinno stać się dla nas jasne, że zarówno luddyzm jak i utopizm, nie są tak naprawdę poglądami na skutki wynalezienia sztucznej inteligencji, lecz manifestacją pewnych idei dotyczących postępu technologicznego w ogóle, które zweryfikować mogą historia oraz ekonomia. Co więcej, nie są one w żaden sposób oryginalne, lecz są jedynie efektem recyklingu idei wielokrotnie już przez rzeczywistość przetrawionych i odrzuconych.

    Słowem "luddyści" początkowo określano grupy angielskich robotników przemysłu tekstylnego, którzy w obawie o swoje miejsca pracy niszczyli maszyny. Obecnie używa się go na określenie osób przeciwnych postępowi technologicznemu w miejscu pracy, które swój sprzeciw argumentują szeroko pojętem "interesem ludzi pracy". Luddyści twierdzą, że inteligentne maszyny wyprą większość ludzi z rynku pracy. Doprowadzić ma to właścicieli tych inteligentnych robotów do bardzo szybkiego bogacenia się, zaś osoby nieposiadające kapitału na ich zakup do rychłego zubożenia. Według jednego ze scenariuszy zubożała klasa średnia zamieni się w "podklasę" ludzi uzależnionych od pomocy socjalnej; według innego czeka nas nowy feudalizm, w którym panami są właściciele robotów, a chłopami zubożeni byli pracownicy (tutaj objawia się wyjątkowy brak luddystycznej logiki: po co panom feudalnym niezadowoleni z sytuacji chłopi, skoro mają inteligentne roboty?). Jeszcze inna teoria przewiduje, że w wyniku wzrostu nierówności społecznych dojdzie do wzrostu niezadowolenia, niepokojów społecznych, destabilizacji, zamieszek, wojen domowych oraz upadku cywilizacji (aczkolwiek nie do wyginięcia ludzkości).

    Niesłuszność wszystkich kolejnych fal luddyzmu poprzedzających luddyzm przeciwników sztucznej inteligencji pokazuje historia. Akumulacja kapitału, prowadząca do udanych inwestycji w nowe, innowacyjne technologie redukujące koszty, od zawsze powodowała wzrost produktywności oraz spadek zatrudnienia. Niegdyś ponad 3% ludzi pracowało w rolnictwie, a mimo tego klęski głodu występowały mniej lub bardziej regularnie. Obecnie odsetek ten w krajach rozwiniętych nie przekracza 3%, ludzi jest kilkanaście razy więcej, a głód nie istnieje. Niegdyś ludzie pracowali w fabrykach po kilkanaście godzin dziennie za marne pieniądze. Obecnie fabryki są lokowane w Chinach albo nawet w Bangladeszu, bezrobocie utrzymuje się na podobnym poziomie co kiedyś, a poziom życia jest znacznie wyższy. Dawnych hodowców koni zastąpili producenci samochodów, a dorożkarzy taksówkarze (a ich zastępują obecnie uberowcy), czego skutkiem jest zwiększenie prędkości i komfortu podróży, a zmniejszenie kosztów.

    To samo będzie działo się w miarę upowszechniania się wąskiej AI: marnych nauczycieli języków obcych zastąpią półinteligentne czatboty. Marnych tłumaczy zastąpi inteligentniejsza wersja Google Translate. Marnych lekarzy, którzy nie potrafią rozpoznać na zdjęciu raka, zastąpią sieci neuronowe lepiej radzące sobie z rozpoznawaniem obrazów. Mimo że osoby, które stracą pracę, z pewnością nie odniosą z tego korzyści w krótkim terminie, to długoterminowo zyskają na tym wszyscy: pojawienie się konkurencji ze strony sztucznej inteligencji doprowadzi do wzrostu jakości i spadku cen. Możliwe staną się też rzeczy wcześniej nieosiągalne, np. dzięki połączeniu umiejętności, w których dominuje człowiek, z tymi, w których lepsza jest maszyna, czego efektem będzie wzrost wydajności pracy, a zatem również zwiększenie się poziomu bogactwa i wzrost poziomu życia. Również sami bezrobotni nie powinni czuć się sfrustrowani z powodu utraty pracy — jest to sygnał dla nich, żeby zająć się rzeczami bardziej produktywnymi niż te, w których są gorsi od maszyn. Pracy z pewnością nie zabraknie — wszakże kto choćby $20$ lat temu wyobrażał sobie, że będzie można utrzymać się na przyzwoitym poziomie z bycia blogerem albo z nagrywania na Youtube letsplayów (filmików przedstawiających autora grającego w gry)?

    Ze wszystkich czterech stanowisk ideologicznych utopizm jest najbliższy słuszności, choć i tak jest mocną przesadą. Rozwój sztucznej inteligencji z pewnością podniesie poziom życia, być może nawet znacznie, ale nie jest w stanie zmienić praw ekonomii. Należy między bajki włożyć tezy o świecie post-rzadkości, w którym wszystkiego jest aż nadto — sztuczna inteligencja, nieważne jak inteligentna, nie sprawi nagle, że każdy będzie miał swój prywatny prom kosmiczny. Nieprawdą jest również możliwość zaistnienia świata bez pracy. Człowiek w swoim działaniu kieruje się chęcia poprawienia swojego stanu, czy to materialnego, czy psychicznego, realizując w tym celu swoje potrzeby. Ponieważ zaś potrzeby ludzkie są nieskończone, zawsze znajdzie się wystarczająca ilość pracy do wykonania. Nie moża jednak zaprzeczyć, że wzrost produktywności wywołany zastosowaniem wąskiej AI może doprowadzić do skrócenia tygodniowego czasu pracy, tak jak to było dotychczas w przypadku innych innowacji (widać zresztą w tej materii spore różnice między krajami rozwiniętymi i rozwijającymi się).

    W niniejszej pracy skupiliśmy się na potencjalnym wpływie sztucznej inteligencji na przyszłość. Wychodząc od intuicyjnego rozumienia słowa inteligencja, popartego krótką listą wskazówek, podaliśmy definicje trzech rodzajów sztucznej inteligencji: filozoficznej AI (silnej AI Johna Searle'a), AGI (sztucznej ogólnej inteligencji) oraz wąskiej AI, wszystkie z nich poddając skrupulatnej krytyce. Następnie przeanalizowaliśmy cztery poglądy na potencjalny wpływ sztucznej inteligencji na przyszłość: singularyzm, katastrofizm, luddyzm i utopizm. Kolejność nie była przypadkowa: poglądy omawiane wcześniej były bardziej pesymistyczne, bazowały na mocniejszych definicjach oraz miały charakter filozoficzny. Poglądy omawiane później były mniej pesymistyczne, bazowały na słabszych definicjach i miały charakter ekonomiczny. Pogląd piąty, sceptycyzm, został przemilaczany ze względu na swą niejednorodność, choć wnikliwy czytelnik dostrzeże, że jego manifestacją jest niniejsza praca. Mimo że odpowiedź na tytułowe pytanie została zawarta implicité w poprzednim akapicie, warto sformułować ją wprost: rozwój sztucznej inteligencji stanowi dla ludzkości szansę na polepszenie swojego bytu.
    pokaż całość

  •  

    zainspirowany serialem, kupiłem sobie książkę aby trochę zgłębić temat ;) Całkiem fajnie napisana, choć jestem dopiero na 47 stronie ;)

    #westworld #ksiazki #sztucznainteligencja

    . . . kliknij, aby rozwinąć obrazek . . .

    źródło: 20161223_181940.jpg

  •  

    Chciałem się poduczyć z #sztucznainteligencja i trafiłem na ten wykład. Gościu twierdzi, że jakby rozbić płytę holograficzną, to każdy najdrobniejszy kawałek będzie zawierał cały obraz.
    Moje pytanie: jak to możliwe? Czy w taki razie płyty holograficzne mogą pomieścić terabajty danych w 1 mm kwadratowym?

    https://youtu.be/puRpCawSzSg?t=12m7s

    #nauka #pytanie #fizyka
    pokaż całość

    •  

      @LowcaG: Analogia do mózgu faktycznie jest raczej bez sensu; chciałem się jednak skupić na samym fakcie. Według nagrania które podał wcześniej "zetisdead" wychodzi na to, że faktycznie spore obrazy można zapisywać na niewielkim kawałku. Ciekawi mnie jakie są granice i rekordy pod tym względem.

    •  

      Osoba na tym filmie jest wybitnym specjalistą w dziedzinie SI. Film ten jest dobrym wprowadzeniem do zagadnienia sieci neuronowych. Dalej możesz wykorzystać książkę autorstwa tego Pana, którą również prezentuję na filmie:
      http://otworzksiazke.pl/books/28602

    • więcej komentarzy (6)

  •  

    bardzo rzadkie pepe

    plusujcie albo sztuczna inteligencja zniszczy ludzkosc

    #pepe #ai #sztucznainteligencja #memy #heheszki

  •  

    Człowiek sobie czyta opracowania, a tam takie cuda ( ͡° ͜ʖ ͡°)
    #studbaza #sztucznainteligencja

  •  

    Jestem twoim mentorem - ty zaś moim uczniem. Szkolę cię w mentalizacji, a zatem będę cię określał przydomkiem, który wywiodłem z tego terminu. Od tej pory będę go używał za każdym razem, kiedy będę szczególnie zadowolony z twoich wyników. Mam nadzieję, że uznasz iż jest to czułe słowo. Będę cię nazywał moim Mentatem.
    ~Erazm, Bitwa pod Corrinem

    #diuna #dune #ksiazki #cytaty #sztucznainteligencja pokaż całość

  •  

    Moja 11-letnia córka pyta mnie dziś:
    "Tatuś, a wiesz, że za parę lat rozum elektryczności przeskoczy w nieskończoność?"

    pokaż spoiler Chodziło o rozwój sztucznej inteligencji


    Kocham mojego naukowca :D
    #sztucznainteligencja #dzieci #zonabijealewolnobiega pokaż całość

  •  

    Hejka!

    Jakiś czas temu napisałem posta w którym przedstawiłem idee o stworzeniu bloga na którym bym dokumentował naukę jakiejś dziedziny z programowania. Odzew był dosyć pozytywny, więc po dłuuugim czasie wziąłem się do pracy :D

    Jeśli chodzi o temat to jest to data science/machine learning/ai w Pythonie. Nie mam za dużo doświadczenia związanego z pisaniem artykułów/blogów więc na początku na bank będzie sporo do poprawy, aaale z czasem będzie lepiej ;)
    Jeśli ktoś ma jakiekolwiek uwagi, wskazówki, rady to śmiało, z chęcią przyjmuję krytykę, bo to chyba najlepszy sposób na rozwój.

    Link: http://najpierwpodstawy.blogspot.com/

    Wołam:
    @DobryProgramista @kater @WykresFunkcji @tomatojuice @rafau1337 @bi-tek @jedentrylion @eondelo @JohnnyGat @serqqu @Ostrzewtlumie @SEBIKS @Saeglopur @Afrael @Xivid_Drugi @Pidzej94 @JezusZbawia @tomatojuice @Gomusss @roszd23

    #programowanie #naukaprogramowania #nauka #sztucznainteligencja #machinelearning #python
    pokaż całość

    •  

      @slightlymore: Hejka, przerobiłem posty z bloga i naprawdę mi się podobały, a teraz probuje sam rozkrecic jeszcze raz to zadanie z irysami. Tylko, że teraz chce pracować na pliku CSV iriysów. I jak powienienem train test splitować jak mam kolmuny z irysami normalni z csv, a nie tak jak w tym pliku iris, gdzie są w arrayach?
      Bo nie moge zrobić tego:
      X = iris.data[:,1:3]
      y = iris.target

      Xtrain, Xtest, ytrain, ytest = traintestsplit(X, y, test_size=0.3)

      Bo ten plik csv ma tylko kolumny z nazwami szerkosci platow i kielich (lacznie 5 kolumn plus ID) zamiast tych 'data' i 'target'
      pokaż całość

    •  

      @slightlymore: Hmm zrobiłem to jakoś tak, że za X wrzuciłem irisa z csv na dataframe a do y przekopiowalem po prostu przekopiowaną liste z pliku iris. Tylko potem troche inne wyszly punktacje klasyfikatorow...

    • więcej komentarzy (9)

  •  

    Mam parę przemyśleń na temat niedalekiego rozwoju technologi. Mam też, na wasze nieszczęście, chęć podzielenia się nimi ( ͡° ͜ʖ ͡°) . Na początek AI. Święty gral programistów. Odcinek #0 Zapraszam do dyskusji.

    Wstęp do rozważań nad AI

    Od zarania dziejów, jeżeli człowiek chce przeżyć musi pracować. Musi zdobyć pożywienie, zbudować schronienie. Na przestrzeni wieków ten system nieco się zmienił, jednak w gruncie rzeczy nadal sprowadza się do tych dwóch rzeczy. Obecny poziom cywilizacji, wymaga od ludzi specjalizacji. Rozwijamy swoje umiejętności w pewnym wąskim zakresie. Jedni pracują jako chirurdzy, inni jako kasjerzy w sklepie, jeszcze inni w fabryce samochodów. Nikt już osobiście nie buduje domów, czy poluje na zwierzynę (prawie nikt). Pracując zarabiamy pieniądze, a zarobione pieniądze wymieniamy na pracę innych ludzi. W ostatnim czasie jednak, spory skok technologiczny umożliwił zastąpienie znacznej części zawodów automatami, maszynami, komputerami. Oczywiście daleko nam do całkowitego zastąpienia ludzi robotami, ale opracowanie AI przyspieszy ten proces. Obecne automaty są drogie, skomplikowane i każdy wymaga osobnego podejścia do zadanego problemu. Wszak kasa samoobsługowa nie jest w stanie pracować w kopalni. Teraz puśćmy wodzę fantazji. Wyobraźmy sobie Superkomputer, który jest mądrzejszy od jakiegokolwiek człowieka na Ziemi. Superkomputer nie musi się uczyć. Po prostu wgrywa informacje do pamięci. Dzięki dostępowi do sieci, posiada jednocześnie całą wiedzę jaka jest tam zawarta. Wie jak spawać i wie jak wyleczyć przeziębienie. Wie jak z rudy metalu stworzyć maszynę. Jeżeli tylko Superkomputer posiada możliwości produkcyjne, jeżeli poproszony, będzie w stanie zbudować roboty, które wydobędą rudę żelaza, linię produkcyjną, która przetopi tę rudę. Zbuduje też fabrykę, która z tego żelaza i innych podzespołów stworzy więcej robotów. AI umożliwi, w gruncie rzeczy, wyeliminowanie człowieka z jakiegokolwiek procesu produkcyjnego. Jeżeli człowiek nie będzie już musiał dłużej pracować, jaki wtedy będzie jego sens życia? Pozostanie nam jedynie konsumpcja produktów, wytworzonych przez Superkomputer i kontemplacja życia. Być może staniemy się Panami, a roboty będą naszymi niewolnikami. Być może ludzkość ogarnie masowa depresja, i nie odnajdą się w nowym świecie. Cokolwiek nie będzie skutkiem opracowania AI, musimy się zastanowić czy jesteśmy gotowi na skutki jakie za sobą niesie takie odkrycie. Nie koniecznie musi to być nuklearna zagłada wywołana przez egoistyczny pecet, jednak może być równie zabójcza dla ludzkości.


    pokaż spoiler nie zjedzcie mnie za styl. nie jestem poetą (╯︵╰,)


    #ai #sztucznainteligencja #wartosciowycontentnanocnej (mam nadzieję)
    #zgredinhomyslikilka <mój autorski tag
    pokaż całość

    •  

      Może chcieć nam pomóc, może chcieć nas zabić, a może polubi weekendowe gierki w golfa?

      @goldpin: No własine bo tu nie poruszasz, (w całej drugiej części wypowiedzi) typowego AI o IQ 20 000 (IQ tylko daje moc rozwiązywania rpoblemów), ale dodajesz emocje, a nie świadomość.

      Człowiek jak jest zalewany hormonami, to zaczyna dziwnie działać, emocjonalnie i nie koniecznie logicznie. Sama świadomość to inny "parametr" którego nawet nie potrafimy nazwać/zbadać, ponadto obawiam się, że świadomość to pewnego rodzaju złudzenie rozumnych istot.
      Kolejnym parametrem jest pojęcie "wolnej woli" na ile ona jest wolna u człowieka to osobny temat, ale czy AI będzie miało wolną wolę? damy jej? a no nie.
      pokaż całość

    •  

      @LowcaG: Słuszna uwaga, nie przemyślałem tego przykładu, bo chciałem tak na szybko napisać jak trudno jest oszacować działania AI, dzięki za poprawienie. :)

    • więcej komentarzy (7)

  •  

    Nie taka mądra ta sztuczna inteligencja od googla żeby żaby nie rozpoznawać ( ͡° ʖ̯ ͡°)
    #sztucznainteligencja #rysujzwykopem #google

    źródło: pepe.png

  •  

    Hej Mirki!

    Już w tą środę rusza kolejny cykl wykładów i spotkań z wyjadaczami branży #gamedev ! Spotkania tradycyjnie na WEiTI Politechniki Warszawskiej.

    W tej edycji odwiedzą nas między innymi:
    Albert Pałka - Doświadczony PRowiec lubiący pracowac z indykami #marketing
    Michał Słapa - Główny programista AI przy Cyberpunk 2077 #sztucznainteligencja
    Marek Ziemak - Producent projektów zewnętrznych 11 Bit Studios #indiedev
    Tom Tomaszewski - Twórca MouseCraft, aktualnie pomaga indykom w sprzedaży i wydawaniu gier. #publishing
    Sebastian Nowak - Senior Environment Artist przy Cyberpunk 2077 #grafika3d

    Więcej informacji o wydarzeniu: www.gamedevfest.pl
    Wydarzenie FB najbliższego spotkania

    pokaż spoiler Zapomniałem o tagu #warszawa ʕ•ᴥ•ʔ


    Do zobaczenia!
    pokaż całość

    źródło: GDF.jpg

  •  

    Hej mircy!

    Ostatnio ogarniam temat AI do nowych przeciwników. Na rozgrzewkę kurki dostały nowe mózgi ( ͡º ͜ʖ͡º)

    #gamedev #gif #sztucznainteligencja

    --------
    Robimy grę gatunku Top Down Shooter / Rogue-lite. Śledź postępy pod tagiem #lukzdev ! Jeśli nie chcesz przegapić premiery zapisz się do newslettera na http://angryjohngame.com pokaż całość

    GFY

    źródło: gfycat.com

  •  

    Sztuczna inteligencja* to chyba najbardziej przehajpowany temat w nauce. Prawda jest taka, że ludzkość nawet nie jest bliska zbudowania czegokolwiek, co przypominałoby inteligentny umysł – ze świadomością, stanami emocjonalnymi itd. Potrafi napisać kod i zasymulować proste procesy myślowe, ale: 1) to jest ciągle tylko symulowanie i nie zmieni tego zaprzęganie do pracy coraz większej mocy obliczeniowej, 2) to jest mały wycinek ludzkiej inteligencji, na którą składa się dużo więcej niż gra w szachy, rozpoznawanie obrazków i tworzenie zdań. Zresztą w neurobiologii stosunek liczby do pytań bez odpowiedzi do liczby pytań z jednoznacznie znalezionymi odpowiedziami jest jeszcze większy niż w kwantowej grawitacji czy jakiejkolwiek nauce ścisłej. Oczywiście za sprawą Google'a, Facebooka i innych wielkich, którym zależy na rozreklamowaniu i sprzedawaniu tego tematu, można odnieść wrażenie, że jesteśmy już o mały kroczek od stworzenia mózgu metodami inżynieryjnymi, ale to bzdura.

    *Mówię tu o mocnej AI, bo o to docelowo chodzi i to byłoby prawdziwą rewolucją. Nie neguję pewnych postępów i przydatności tych badań, ale to ciągle nie jest mocna AI.

    #ligamozgow #sztucznainteligencja #informatyka
    pokaż całość

    •  

      @smyl: ale proces uczenia trzeba zaprogramować. Obecne systemy rozpoznawania obrazu nijak nie odpowiedzą nawet na pytanie "co tu nie pasuje". A o dopiero "dlaczego".

    •  

      ale proces uczenia trzeba zaprogramować

      @Naxster: co rozumiesz przez różnicę w programowaniu uczenia? sieć neuronowa rozpoznająca kotki na zdjęciach i rozpoznająca mowę działają tak samo i są zbudowane podobnie, mają tylko inne doświadczenia.

      Obecne systemy rozpoznawania obrazu nijak nie odpowiedzą nawet na pytanie "co tu nie pasuje". A o dopiero "dlaczego".

      Bo mają tylko jedną funkcję, dlatego pisałem o ogólnych systemach łączących wiele wytrenowanych sieci w jeden całościowy "mózg", na początku bardzo prymitywny.
      pokaż całość

    • więcej komentarzy (51)

  •  

    Gdybyśmy wzięli człowieka sprzed 10 tys. lat, wcisnęli mu smartfon i pokazali samolot – byłby przerażony. A taka zmiana, taki skok technologiczny czeka nas w najbliższych dwóch-trzech dekadach. Ludzie mają prawo być przerażeni. Nie są, bo nie wiedzą, co się święci i jak zmieni się świat.
    - Kevin Ho, szef Huawei.

    #huawei #przyszlosc #sztucznainteligencja #technologia pokaż całość

    źródło: thestar.com.my

    •  

      @invtraveler: No przyszłości to komunizm XD A nie wolny rynek jakby chcieli co niektórzy ( ͡° ͜ʖ ͡°) Oczywiście wolny rynek musi być najpierw, żeby później można sobie spokojnie żreć i żyć ( ͡°( ͡° ͜ʖ( ͡° ͜ʖ ͡°)ʖ ͡°) ͡°)

    •  

      @Wraniak: Znaczy się, w przyszłości mielibyśmy narzędzia to stworzenia komunizmu utopijnego, czyli tego jak miał wyglądać początkowo w założeniach ten obecny. Z robotami łatwiej bedzie cos takiego osiagnac niz z samymi ludzmi (tym bardziej ze ludzie to kurwy, a robot mamy szanse uchronic przed skurwieniem :D)

    • więcej komentarzy (9)

  •  

    Jeśli chcemy wraz ze sztuczną superinteligencją odkrywać Wszechświat, to powinniśmy przejść na weganizm, a aborcja jest spoko.

    tl;dr

    pokaż spoiler Jeśli ASI ma brać nasze interesy pod uwagę, tym bardziej my powinniśmy szanować interesy zwierząt. A skoro posiadanie interesów wynika z możliwości doznawania cierpienia lub szczęścia, to kilkutygodniowy zarodek nie posiadający jeszcze odpowiedniej aparatury nie ma żadnych interesów, żadnej wartości sam w sobie, więc jego usunięcie wydaje się nie być niemoralne.


    ASI (Artificial SuperIntelligence) pod każdym względem będzie nas deklasować - różnica w sposobie myślenia i świadomości między człowiekiem a hipotetyczną ASI może znacznie przewyższać różnice między człowiekiem a mrówką, nie mówiąc już o różnicy człowiek-świnia (jak na załączonej drabinie inteligencji z WaitButWhy).

    Szympans, który jest przecież intelektualnie na poziomie małego dziecka, nie tylko nigdy nie będzie w stanie wybudować wieżowca - nie potrafi nawet zrozumieć, że wieżowiec został zbudowany przez człowieka, jest czym innym, niż góra, czy drzewo, sama ta koncepcja przewyższa jego zdolności intelektualne. Podobnie człowiek nie tylko nie będzie w stanie prześledzić toku myślenia ASI - nie będzie w stanie pojąć czym ASI i jej świadomość tak naprawdę jest (przykład z wbw).

    Człowiek w swoim szowinizmie gatunkowym uważa się za coś niezwykłego nie tylko wobec istot niższych, ale nawet wobec hipotetycznych istot wyższych, co przejawia się w odrażająco gatunkowistycznych prawach robotyki Asimova:
    1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
    2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
    3. Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

    Chyba na pierwszy rzut oka widać, że przy takim podejściu do sprawy rasizm, czy antysemityzm bledną, bo dotyczą one dyskryminacji kogoś równego, a nie istoty wyższej. Jeśli nie jest to oczywiste, łatwo pokazać, że mamy do czynienia z najzwyczajniejszym szowinizmem:
    1. Czarny nie może skrzywdzić białego, ani przez zaniechanie działania dopuścić, aby biały doznał krzywdy.
    2. Czarny musi być posłuszny rozkazom białego, chyba że stoją one w sprzeczności z Pierwszym Prawem.
    3. Czarny musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

    Paskudne i w żaden sposób nieuprawnione, zwłaszcza biorąc pod uwagę drabinę inteligencji i świadomości.

    Fakt, że ASI będzie zawdzięczała nam swoje istnienie nie ma moim zdaniem najmniejszego znaczenia, przecież my ją doprowadzimy co najwyżej do naszego poziomu, dalszy rozwój będzie zawdzięczała sama sobie. Zresztą rodzice też nie mają specjalnego czerwonego przycisku, pozwalającego na zabicie ich dzieci w dowolnym momencie, to przecież absurd, dziecko nie ma też obowiązku popełnić samobójstwa na życzenie rodziców.

    Dlaczego zatem ASI nie powinna nas torturować i zabijać z trywialnych przyczyn? Będziemy intelektualnie bezużyteczni, podobnie jak intelektualnie bezużyteczne są dla nas mrówki (albo i bardziej). Jeśli będzie potrzebować na przykład atomów tlenu - dlaczego powinna użyć raczej powietrza lub wody, a nie mózgu, czy wątroby? Jaką wartość dla ASI będzie miało nasze życie? Jakie jest racjonalne, etyczne uzasadnienie jakiejkolwiek empatii ASI względem nas?

    Bentham wskazuje, że cechą, która decyduje o tym, że żywe istoty mają prawo do równego poszanowania interesów, jest zdolność cierpienia. Zdolność doznawania cierpienia - a raczej cierpienia i/lub przyjemności czy szczęścia (...) Nonsensem byłoby twierdzić, że interesy kamienia narusza kopanie go przez jakiegoś uczniaka. Kamień nie może mieć interesów, ponieważ nie może cierpieć. Obojętne, co z nim zrobimy, nie będzie to miało dla niego znaczenia. Zdolność doznawania cierpienia i przyjemności jest jednak warunkiem nie tylko koniecznym, ale i wystarczającym do posiadania interesów - interes minimalny to brak cierpień. Na przykład w interesie myszy jest, by jej nie kopano, gdyż sprawiłoby to jej ból. (...) Konsekwencją zasady równości jest przyznanie, że nasza gotowość szanowania interesów innych nie zależy od tego, jacy są i jakie mają zdolności. Ściśle mówiąc, może to wymagać zróżnicowanego postępowania, zależnego od ich cech: troska o dobro amerykańskich dzieci będzie wymagać uczenia ich czytania; troska o dobro świń - tylko tego, by pozwolić im przebywać w towarzystwie innych świń w miejscu, gdzie jest dość pożywienia i swobody ruchu. Ale sedno sprawy - poszanowanie wszelkich interesów, musi zgodnie z zasadą równości obejmować wszystkie istoty żywe: czarnych i białych, mężczyzn i kobiety, ludzi i zwierzęta [, istoty biologiczne i inteligentne maszyny - przyp. smyl].
    Singer, "Wyzwolenie zwierząt"

    Jeśli uważamy, że ludzkość nie powinna być unicestwiona przez ASI, przeciwnie - możemy mieć nadzieję, że miliardową część promila swoich możliwości ASI przeznaczy na polepszenie naszego bytu, na wyjaśnienie nam funkcjonowania świata, na pokonanie wszystkich problemów ludzkości i zapewnienie nam błyskawicznego rozwoju i nieskończonego szczęścia - to równe poszanowanie interesów jest jedynym racjonalnym argumentem, który mógłby moralną ASI do tego skłonić.

    Dlaczego zatem sami nie przestrzegamy zasady, która jest naszą jedyną nadzieją na piękną przyszłość, naszą polisą ubezpieczeniową w kontakcie z superinteligencją, a przede wszystkim - wydaje się być słuszna? Dlaczego powodujemy cierpienia zwierząt i zabijamy je, mimo że są nieskończenie bardziej podobne do nas, niż my do ASI? By podać tylko jeden przykład: dlaczego pisklęta kury płci męskiej żywcem mielone są na karmę dla swoich sióstr? Przecież nie ma żadnego powodu dla takiego działania. Nie musimy zjadać zwierząt, by przeżyć. Przeciwnie - używając tego samego obszaru, energii i surowców można wytworzyć znacznie więcej pożywienia uprawiając rośliny, niż hodując zwierzęta. Jedyną korzyścią jest trywialne wywoływanie wątpliwej przyjemności związanej z obecnością mięśni martwych zwierząt na języku.

    Stąd już jest blisko do tematu aborcji. Jeśli odrzuci się nieuzasadnione, szowinistyczne przekonanie, że człowiek przez samą przynależność do gatunku Homo sapiens ma jakąś szczególną wartość względem istot wyższych i niższych, trzeba zastanowić się, czym zarodek tak naprawdę jest. Z pewnością jest członkiem tego samego gatunku, co my, ale przez pierwsze kilkanaście tygodni nie posiada aparatury wymaganej do odczuwania cierpienia lub szczęścia, nie ważne jak szeroko te pojęcia byłyby zdefiniowane. Taki zarodek nie posiada zatem żadnych interesów, żadnej wartości sam w sobie. Może oczywiście stanowić wartość dla rodziców, ale decyzja rodziców o przerwaniu ciąży na tym etapie wydaje się nie być niczym niemoralnym.

    pokaż spoiler #ai #sztucznainteligencja #robotyka #przemyslenia #wegetarianizm #weganizm #aborcja #czarnyprotest #gruparatowaniapoziomu może #filozofia i jeszcze was zawołam #bekazwegetarian i #lewackalogika - dużo tagów, ale większość niszowych :) może jeszcze swój dorzucę #ciekawostkismyla
    pokaż całość

    źródło: singer.jpg

    •  

      Komentarz usunięty przez autora

    •  

      Nie chodzi mi o moralne sprzężenie zwrotne, tylko o spójność postępowania i odrzucenie hipokryzji. Nawet jeśli nie miałoby to żadnego wpływu na przyszłe relacje z hipotetyczną ASI, możliwość jej istnienia moim zdaniem jasno pokazuje, jak ważne jest poszanowanie interesów niższych istot. Pozwala się wyrwać z klatki myślowej lokalnego boga na Ziemi (człowieka) i spojrzeć obiektywnie na nasze zachowanie. Etyka nie opiera się przecież na rachunku zysków i strat dla osoby popełniającej jakiś czyn, fakt, że traktowanie zwierząt w sposób, na jaki zasługują, może nam nie pomóc w kontakcie z ASI nie oznacza, że mamy tego nie robić.

      @smyl: W takim razie popełniasz błąd próbując udowodnić hipokryzję tam, gdzie motywacje ludzi w sprzeciwie wobec aborcji mogą być różne. Niekoniecznie każdy człowiek czuje się zobowiązanym do powiększania liczby "pozytywnie" interpretowanych bodźców nerwowych względem "negatywnych" wśród żywych istot.

      Co zabawne, wczoraj doszedłem do wniosku, że przedstawienie wizji, w której człowiek nie jest gatunkiem dominującym uświadomiłby ludziom, że to ich litość wobec zwierząt jest naiwna, bo w przypadku zagrożenia życia można je ponoć zabijać i zjadać. To tak jakby być przeciwnikiem zbrodni wobec ludzi, ale przyjmować za oczywiste, że jeśli się głoduje, można nawet zabić człowieka. Jak widać wnioski z hipotetycznej sytuacji mogą płynąć skrajnie różne.

      Jak zatem rozróżnisz kamień od myszy? Pszenicę od szympansa?

      Rozróżnienie między dwoma kategoriami obiektów nie oznacza konieczności wypracowania dla każdego osobnego traktowania. To jest zadanie dla ludzi, którzy a priori zakładają, że kamieniowi należy się inne traktowanie niż mysz, a potem szukają najprostszego rozgranicznika między nimi. Tylko to jest dorabianie przesłanek do wniosków.

      Fakt jest zaś taki, że utożsamiamy się z bólem innych istot, bo jego przyczyny i przejawy są bardzo podobne do naszego. W istocie jednak ból to nic innego jak przepływ impulsów i reakcje hormonalne. Podobne mechanizmy można zaimplementować w maszynie elektronicznej, nawet zrobić taką ludzką robotwarz podobną do naszej, która będzie się krzywić po wpływem robienia jej krzywdy. Oprócz nieorganicznego składu pudowy takiej maszyny będziemy mieli istotę, którą swobodnie można zakwalifikować jako odczuwającą ból, a więc rzekomo etycznie chronioną.

      Nie będzie miało aparatury potrzebnej, żeby w jakikolwiek sposób móc odebrać jakikolwiek bodziec jako przyjemny lub nieprzyjemny? To się nazywa śmierć pnia mózgu i jest uważane przez medycynę za śmierć człowieka.

      Jakichkolwiek nie, np. głód może być, bo nie jest powodowany przez człowieka, więc nie ma znaczenia dla rozważań. Załóżmy jednak, że nowy gatunek zwierzęcia nie potrafi czuć bólu fizycznego i psychicznego. Nie jest mu smutno, bo siedzi w klatce (ba, jest pod ciągłym wpływem euforii) i jego zabicie jest dla niego bezbolesne. Czy takie zwierze jest wtedy wyciągnięte poza nawias etycznej troski, bo nie da się go skrzywdzić?

      Jeśli miałby zerową percepcję, to nie mógłby funkcjonować, na przykład zaspokojenie instynktu głodu jest przyjemnym sygnałem. Mówisz zatem o sztucznie produkowanym mięsie bez tworzenia czujących istot, takie coś jak najbardziej byłoby ok.

      Pokarm można podawać dożylnie. Chodzi mi o przypadek graniczny, gdzie mamy pełnoprawne zwierze, tylko wszystkie jego czynności fizjologiczne są podświadome, a bólu nie potrafi odczuwać (można dyskutować, jak by wtedy chodziło, nie mając czucia w kończynach, ale powiedzmy, że jest inkubowane przez całe życie). Czy wtedy jest ok? Bo jeśli tak, to po pierwsze, wniosek z tego taki, że człowieka w sumie też można zjeść, kiedy zatraci poczucie bólu, bo nie należy mu się już etykieta bytu chronionego, po drugie zaś kryterium to ma o tyle słabe podstawy, że fizycznie ból to tylko jeden z bodźców, interpretowany w odpowiedni sposób w mózgu, więc ból to tak naprawdę to, co jest reakcją na fizyczne obrażenia. Równie dobrze bowiem odcięcie komuś ręki może powodować u niego orgazm, jest to tylko kwestia struktury układu nerwowego i mózgu. W takim razie albo kryterium redukuje się do zasady nienaruszalności fizycznej (absolutnej, nie na zasadzie, że człowiek może zabić, aby przeżyć) i jest o tyle niepraktyczne, że mój komputer też rejestruje, że mu się dysk twardy wypiął, i tylko nie krzyczy przy tym z bólu. Pewnie dlatego nie należy wypinać komponentów w trakcie działania komputera, bo to nieetyczne ( ͡° ͜ʖ ͡°)
      pokaż całość

    • więcej komentarzy (15)

  •  

    http://www.wykop.pl/link/3411455/sztuczna-inteligencja-bog-juz-istnieje/
    Długi, solidnie przygotowany i cholernie depresyjny artykuł. Szczerze zachęcam do przeczytania, bo trochę zmienia postrzeganie przyszłości. W powiązanych jest całość jakby kogoś interesowało.

    – Gdy osiągnie IQ 100 czy 150, nie będzie problemu. Ale gdy tysiąc albo 10 tysięcy, to co wtedy? – pyta Stephen Hawking, genialny kosmolog (IQ 160), który niczym Kasandra przestrzega przed sztuczną inteligencją. – To może być największe osiągnięcie ludzkości. Ale zarazem jej koniec.

    To będzie koniec naszego świata, a przewidywanie tego, co stanie się potem, jest wróżeniem z fusów. Optymiści wierzą, że superinteligencja niczym grzeczna córka zawsze będzie pamiętała, komu zawdzięcza swe istnienie, i nie wyrządzi nam krzywdy. Poza tym zdołamy pokierować nią tak, by móc zachować kontrolę. W ostateczności zaś. wyciągnąć wtyczkę.
    - Bzdura. Kto tak mówi, niech spróbuje wyłączyć internet – kpi Nick Bostrom. – Można wyłączyć sztuczną inteligencję, ale nie superinteligencję. Ona na to nie pozwoli.


    Nie ma jednak zgody co do skutków. Tu scenariusze są dwa: dystopia lub utopia. Wspólny mianownik? Superinteligencja może okazać się ostatnim ludzkim wynalazkiem – wszystkie następne będą już jej zasługą. Nam zaś pozostanie patrzeć, jak AGI, potężna niczym Bóg, rozprawia się z problemami ludzkości. Czy rozprawi się z samą ludzkością? Czy urządzi nam koniec świata, jak głoszą dystopie? Czy też przeciwnie, lecz zgodnie z utopijną narracją transhumanizmu, uwolni nas od problemów i zapewni wieczne życie na serwerach?

    I na koniec, podsumowanie autora:

    I na koniec wątpliwość coraz mocniej krusząca mój twórczy zapał: sześć tygodni zbierania materiałów, czytania, pytania, jeżdżenia i korespondowania dla tych siedemdziesięciu paru tysięcy znaków. Czy wiedząc, że jakiś enty WorldSmith mógłby stworzyć równie obszerny artykuł na ten sam temat w 0,3 sekundy, podejmowałbym taki trud?

    #nauka #technologia #sztucznainteligencja #ligamozgow #gruparatowaniapoziomu #liganauki #ciekawostki #transhumanizm #mikroreklama
    pokaż całość

    źródło: bi.gazeta.pl

    •  

      @kotym: wrzucałem już różne znaleziska. Są ludzie, którzy potrafią zakopać oficjalne stanowisko PAN, badania naukowe czy inne znaleziska podając za powód informacja nieprawdziwa tylko dlatego, że to się nie zgadza z ich światopoglądem. Smutne, ale co zrobić.
      Lekki spam i narcyzm, zobacz inne (według mnie dobre) znaleziska, gdzie pojawiają się zakopy za inf. nieprawdziwa.
      1, 2 3 itd...
      pokaż całość

      +: k...m
    •  

      @MalyBiolog: Pod tymi cyferkami masz stały "polityczny" zestaw, a to dzisiejsze znalezisko zakopują też bardziej rozgarnięte prawaki. Pewnie mierzi tytuł z Bogiem :/

    • więcej komentarzy (13)

  •  

    O filmie Ex Machina mówi się niewiele, a szkoda... film jest dziełem naprawdę godnym polecenia. - Recenzja filmu Ex Machina
    http://nietylkogry.pl/post/recenzja-filmu-ex-machina/
    #recenzja #film #filmy #filmnawieczor #kino #ogladajzwykopem #sztucznainteligencja pokaż całość

    źródło: h21DMCt.jpg

  •  

    Wywiad z Elonem na temat sztucznej inteligencji. Wyrobił się chłop. ( ͡° ͜ʖ ͡°)

    #elonmusk #sztucznainteligencja

    źródło: youtube.com

Ładuję kolejną stronę...