Wpis z mikrobloga

Czy sztuczna inteligencja byłaby zdolna do łamania zasad, przepisów lub nawet prawa, by odnieść korzyści lub zminimalizować zużycie zasobów (czasu, pieniędzy, energii)?

Hipotetyczna sytuacja - robot symulujący pieszego, który traci 30 sekund stojąc na przejściu dla pieszych na czerwonym świetle. Przejście jest na mało ruchliwej podrzędnej drodze, która poprowadzona jest trochę pod kątem do nadrzędnej i wystarczy ściąć nieco kawalek trawniczka, by przejść w miejscu niedozwolonym zaledwie kilka metrów od pasów. Wszystko na pic rel (pomarańczowa trasa to normalna, z czekaniem na pasach; brązowa to trasa z nagięciem przepisów).

I niby jest to nadłożenie drogi (być może zużycie więcej paliwa), ale zaoszczędzenie czasu - tu zależy od tego, co jaki ma priorytet.

Zakładam, że AI prędzej czy później sama nauczyłaby się, że tamtędy można skrócić sobie czas z jakim się przemieści (przemieszczenie będzie identyczne), kosztem wydłużonej drogi. Wtedy na podstawie priorytetów lub stosunku kosztu do korzyści na końcu drogi wybrałaby, czy potencjalnie łamać prawo, czy stać i czekać.

#sztucznainteligencja #ai #przemyslenia #scifi

@mk321 co Ty na to?
Pobierz Arveit - Czy sztuczna inteligencja byłaby zdolna do łamania zasad, przepisów lub nawe...
źródło: comment_gYfiCXd1eqlszzrSQs0uR7drgpG7MwvQ.jpg
  • 17
@Arveit: w zasadzie to już masz teraz. mapy gogle.
ustawiasz sobie trasę przez pół polski i nagle widzisz że ona się zmieniła. powód - robot G. zauważył ze gdzieś się korkuje i w locie zmienia trasę.
tu też AI będzie się uczyć optymalizacji, np. poprzez obserwację NPCów ( ͡° ͜ʖ ͡°)
sztuczna inteligencja? Zaprogramowana? Mówimy o prawdziwym, hmm... tworze? zdolnym do samodzielnego rozwiązywania problemów, a nie if if if if if :D


@Arveit: ahhh, no wybacz, nawet taka trzeba zaprogramowac, podpowiem.
Sieci neuronowe są też zaprogramowane ;)

Wejścia też są nieprzypadkowe tylko ktoś zaprojektował co ma tam być.juz nie wspominając i wyjściach

I nie mówię o żadnych idach.

Albo "wpisujemy" my twórcy ograniczenia ostre albo nie. Jeżeli nie wpisujemy (wolna wola?)

To
@Arveit: i wyobrażasz sobie że mapy gogle będa puszczać cały krajowy ruch "troszkę" pod prąd bo tak lokalsi robią?
no nie. nie tędy droga. priorytetem jest safety first, przepisy i kodeks drogowy.

co nie znaczy że takie podejscie nie będzie musiało być zaimplementowane w 4 gen. samojazdów.
Bo prędzej czy później autonomiczne będą się spotykać z dziwnościami zdarzeń codziennych na drodze i będa musiały podejmowac takie troszkę nielegalne działania

https://www.wykop.pl/link/3658421/jak-zlapac-autonomiczny-samochod-w-pulapke/
@syn_admina: poczekaj, ja nie mówię, że GMaps mają tak robić. Pytałem o jeden konkretny przypadek, który opisałem we wpisie :P GMaps podałeś jako przykład, więc próbowałem naświetlić analogię.

@LowcaG: jasne, a co z takimi, które potrafią same doskonalić i rozwijać swój kod źródłowy? A w przyszłości będą więc w stanie te ograniczenia same zdjąć, bo stwierdzą, że je, no cóż, ograniczają?
@Arveit: Gm. tylko podaję bo to jest powszechnie uzywane już teraz. i potrafi doskonale robić to na co mu pozwolono.
bo gdyby nagle robot gogle zaczął się uczyć od lokalsów dziwnych myków i polecał reszcie kierwców, to zaraz zostało by to wyłączone. reszta kierowców podniosła by larum ze mapy im każą łamac prawo, a samo G. tez nieprzychylnie na takie łamanie przepisów patrzy.

to o czym piszesz to pieśń przyszłości i
jasne, a co z takimi, które potrafią same doskonalić i rozwijać swój kod źródłowy? A w przyszłości będą więc w stanie te ograniczenia same zdjąć, bo stwierdzą, że je, no cóż, ograniczają?


@Arveit: hmm zapytam na starcie, aby potem nie pisać dla ciebie banałów, jesteś programista? Masz coś wspólnego z budowaniem takich (inteligentnych) systemów? Czy raczej bliżej CI filozofa, i to rozważania filozoficzne?

Bo wiesz, to nie działa tak, że losuje
sztuczna inteligencja


@Arveit: zdefiniujmy czym jest sztuczna inteligencja. Myślę, że to zawsze powoduje spory w dyskusji czy sztuczna inteligencja coś może czy nie może.

Przyjmuję dwie możliwości (dla uproszczenia):

1. Sztuczna inteligencja jako algorytm/program, który obecnie znam (lub jest możliwy technicznie do realizacji w najbliższej przyszłości). Takie coś jak obecnie posiada Google, Facebook, Tesla czy OpenAI.

2. Sztuczna inteligencja, która może robić wszystko to co człowiek. Taka jak przedstawiana w książkach
Myślę, że o to chodziło @LowcaG, tylko był to skrót myślowy.


@mk321: dokładnie :)
Tyle że piszę na komórce, w biegu więc nie mam zasobów na długie teksty :)

Ale Twój tekst w samo sedno.

Co do totalnie wolnej AI jest wiele problemów, bo naszym niejawnym kryterium jest to, że nasze działania są oceniane poprzez moc rozmnożenia, i jako całość jak będziemy np. Zbyt lekko traktować przestępstwo np. Zabójstwo bo,
Bot musi tego doświadczyć, żeby zebrać dane. Nie zna praw, ale może przypadkiem się do nich stosować, bo jest to optymalne.

Jeśli w tych danych umieścimy zbiór tras/reguł, które nazwiemy "polskie prawo drogowe" (trasa, którą ktoś przeszedł na czerwonym oznacza złamanie prawa, a do tego dodatkowo funkcja celu, która za to każe), to bot może przestrzegać prawa.

Zbyt lekko traktować przestępstwo np. Zabójstwo bo, bo mnie obraził, to z większym prawdopodobieństwem takie
@LowcaG: @mk321: @Arveit:


@AdireQ: Przykładami takich ewolucyjnych, wyspecjalizowanych zdolności są: ciekawość, uczenie przez naśladowanie i predictive learning. Zdolności które u nas powstały na skutek przystosowania do środowiska, u sztucznej inteligencji muszą być implementowane sztucznie. Więc najpierw stado neuropsychologów musi zauważyć że jakaś zdolność jest kluczowa w procesach poznawczych i wykminić jak ona działa na poziomie układu nerwowego a potem ludzie od ML muszą ją wystrugać w formie sztucznej
czekujemy od agenta w reinforcement learningu że w pojedynkę nauczy się skomplikowanych strategii podczas gdy ludzie przekazują sobie i ulepszają strategie z pokolenia na pokolenie.


@AdireQ: hm...ale mamy inny czas iteracji nauki, nas ogranicza czas wykonania jednej iteracji, a tam można to symulować , wiele razy, ba, to uczenie np. w reinforcement learning mógłym porównać, że kolejna iteracja to kolejne pokolenie , czyli następuje przekazywanie już nauczenia.

chociaż pewnie Ty mówisz