Aktywne Wpisy
kupczyk +511
OlaKordasOfficial +303
Lewaki się spłakały do moderacji i wpis usunięty, to napiszę jeszcze raz bez przekleństw.
Spróbujcie otworzyć lokal, w którym będziecie obsługiwać tylko białych heteroseksualnych ludzi. Zakaz wstępu dla czarnych, beżowych i lpg. Zobaczycie, co was spotka. Tymczasem we wspaniałym postępowym, toleranyjnym świecie możecie sobie bezkarnie dyskryminować rodziny z dziećmi i sugerować, że nawet pies jest wyżej w hierarchii.
#bekazlewactwa #bekazpodludzi #lewackalogika
Spróbujcie otworzyć lokal, w którym będziecie obsługiwać tylko białych heteroseksualnych ludzi. Zakaz wstępu dla czarnych, beżowych i lpg. Zobaczycie, co was spotka. Tymczasem we wspaniałym postępowym, toleranyjnym świecie możecie sobie bezkarnie dyskryminować rodziny z dziećmi i sugerować, że nawet pies jest wyżej w hierarchii.
#bekazlewactwa #bekazpodludzi #lewackalogika
Tytuł: Broń matematycznej zagłady
Autor: Cathy O'Neil
Gatunek: Informatyka i matematyka
★★★★☆☆☆☆☆☆
O książce dowiedziałem się z podcastu na stronie niebezpiecznik.pl. Na tej stronie, w komentarzach użytkowników, widniało wiele wpisów informujących o tym, że autorka ma bardzo lewicowe poglądy. Niestety, znalazło to duże odzwierciedlenie w książce.
Tematem książki są systemy przetwarzania danych, wykorzystywane w profilowaniu użytkowników np. przez uczelnie wyższe, ubezpieczycieli i bańki.
Książka jest pełna "lewicowej wrażliwości." Zaczyna się od wstępu polskiego dziennikarza z okopress, który stwierdza że w Polsce wszyscy są zwolennikami wolnego rynku i mają gdzieś nierówności społeczne. Następnie, we właściwej części książki, autorka stara się pokazać na kolejnych przykładach, że algorytmy i systemy danych wykorzystywane przez państwa i wielkie korporacje są szkodliwe i niebezpieczne. Dyskryminują one ludzie ze względu na rasę, status majątkowy, płeć, etc. Zagrażają wolności słowa i demokracji. Jako receptę podaje oczywiście zwiększenie regulacji i obecności państwa w tym "sektorze.".
Książkę czytało mi się szybko, ale mam wrażenie, że autorka wielokrotnie powtarza w niej to samo. Nie podobało mi się lewicowe nastawienie oraz z góry skreślanie wszystkich systemów jako opartych na błędnych przesłankach. Delikatnie mówiąc, mocno się zawiodłem.
#bookmeter
Wpis został dodany za pomocą skryptu do odejmowania
!Dzięki niemu unika się błędów w działaniach
!Pobierany jest zawsze ostatni wynik
- Z góry określenie, że prawie wszystkie komercyjne systemy "Big Data" są szkodliwe dla ludzi.
- Naciągane historyjki, np. historyjka o tym, że policja kupiła sobie oprogramowanie, które na podstawie dotychczasowych interwencji wskazuje na rejony w mieście, które trzeba częściej patrolować. No i oprogramowanie wskazało dzielnice Latynosów i Afroamerykanów. Przez co liczba interwencji wśród członków tej społeczności wzrosła. Hurr durr dyskryminacja. Kolejna historyjka o policji: program wskazał policji listę potencjalnych