Piotr Cieśliński
Żołnierka Sił Obronnych Izraela ze Spike, pociskiem typu 'odpal i zapomnij’ (Natan Flayer/Wikipedia na licencji C.C.3.0)
Żeby coś zrozumieć, nie wystarczy krótka notka na Twitterze, filmik na YouTubie czy telewizyjna „setka”. Trzeba przeczytać 400-stronicową książkę
Piotr Cieśliński: Co za zbieg okoliczności. Umawialiśmy się na rozmowę o informacji i sztucznej inteligencji, a dosłownie kilka godzin temu Nobla z fizyki dostali pionierzy uczenia maszynowego.
Yuval Noah Harari: Z fizyki? To ciekawe.
Ostatni raz sprawdzałem wiadomości z rana, w ciągu dnia staram się nie śledzić mediów. Kto dostał tego Nobla?
Jednym z laureatów jest Geoffrey Hinton…
– Zdecydowanie zasługiwał, jest jednym z dwóch lub trzech najważniejszych naukowców w dziedzinie sztucznej inteligencji. Choć powinien to być raczej Nobel z informatyki. Rzecz jasna, kiedy ponad sto lat temu Alfred Nobel pisał testament, nikt nawet nie śnił o naukach komputerowych, ale teraz to jest nauka być może najdynamiczniejsza i najbardziej zmieniająca świat.
Zazdroszczę panu tego odcięcia od wiadomości, ja od rana zdążyłem już kilkadziesiąt razy zajrzeć do smartfona, żeby czytać maile i najnowsze doniesienia. Nie mogę się powstrzymać, robię to kompulsywnie.
– Toniemy w powodzi informacji, a wynika to po części z mniemania, że więcej informacji zawsze jest dla nas dobre, przyczynia się do wzrostu wiedzy i mądrości.
Uważamy tak od stuleci.
– To tak, jakby myśleć, że zawsze nam służy więcej jedzenia. A tymczasem potrzebujemy dobrej diety.
Z informacjami jest podobnie, powinniśmy karmić się ograniczoną liczbą wiadomości i tylko dobrej jakości.
Nie wystarczy się obżerać informacjami, trzeba dać sobie czas na ich strawienie, przemyślenie. Większość jest śmieciowym jedzeniem dla umysłu.
Na pewno fake newsy.
– Prawda jest rzadkim i kosztownym dobrem. W zbiorze wszystkich informacji, które rozchodzą się każdej sekundy po świecie, te prawdziwe są drobną mniejszością.
Administratorem danych osobowych podanych przy zapisaniu się na newsletter jest Wyborcza sp. z o.o. z siedzibą w Warszawie (00-732), ul. Czerska 8/10. Podane dane osobowe będą przetwarzane przede wszystkim w celu wysyłki zamówionego newslettera, który może zawierać treści marketingowe.Więcej
Pan jest dziennikarzem, ja naukowcem, więc obaj wiemy, skąd to się bierze. Żeby napisać rzetelny raport na jakikolwiek temat, trzeba zainwestować dużo czasu, energii i pieniędzy, znaleźć źródła, dowody, sprawdzić fakty, przeanalizować je.
Prawda jest kosztowna, fantazje i kłamstwa są bardzo tanie.
A często bardziej atrakcyjne.
– Niemal zawsze. Prawda bywa skomplikowana, bolesna, nudna, bo taka jest rzeczywistość. Fikcję można dowolnie uprościć, a ludzie zazwyczaj wolą proste historie, bo bardziej wciągają.
Z tego powodu na całkowicie otwartym rynku informacyjnym większość informacji nie jest prawdziwa, co świetnie widać w obecnym zalewie kłamstw i teorii spiskowych.
Tego lata miałem wyjątkowo długie wakacje – wędrowałem z plecakiem po górach bez telefonu i połączenia internetowego. Kiedy po miesiącu wróciłem do pracy, zdałem sobie sprawę, że w tym czasie nic ważnego się nie wydarzyło, ale serwisy informacyjne sypały newsami jak zawsze.
– Myślę, że zarówno każdy z nas, jak i całe społeczeństwo potrzebuje diety informacyjnej.
Pan już jest na takiej diecie.
– Wiadomości sprawdzam tylko z rana, a raz w roku robię sobie dłuższy i ściślejszy post – zamykam się w odosobnieniu medytacyjnym. Zacząłem od 10-dniowych medytacji 25 lat temu, kiedy robiłem doktorat w Oksfordzie. Z czasem spróbowałem dłuższych 20-, 30-dniowych, a teraz co dwa lub trzy lata wyjeżdżam na 60-dniowe.
Gdzie?
– Do Indii, ale na świecie jest wiele ośrodków, gdzie się w ten sposób można zaszyć, np. w Wielkiej Brytanii, na Litwie, także w Polsce.

Prof. Yuval Noah HarariFot. Materiały prasowe
Potrzebuję trzech lub czterech dni, aby zacząć się wyciszać, pozostawić za sobą cały ten informacyjny szum. Po dwóch tygodniach mogę już spacerować w lesie z czystym i spokojnym umysłem.
Tyle że w końcu trzeba wrócić do rzeczywistości z jej informacyjnym przesytem. Do czego, muszę samokrytycznie przyznać, przyczyniają się też media.
– Też mam w tym udział. Zdarza mi się udzielać wywiadów w telewizji. Mam zwykle kilka minut na wypowiedź, a co można przekazać w tak krótkim czasie? Nic skomplikowanego, mówię więc kilka sloganów. Siłą rzeczy upraszczam i spłycam rzeczywistość, która w każdej niemal dziedzinie jest bardziej złożona.
Żeby coś zrozumieć, nie wystarczy krótka notka na Twitterze, filmik na YouTubie czy „setka” w TV. Trzeba przeczytać 400-stronicową książkę.
Ale to wymaga czasu, którego wszystkim brakuje…
– To trzeba się pogodzić z tym, że nie damy rady sami wszystkiego zgłębić, sprawdzić i zbadać. Nawet genialne umysły muszą w wielu sprawach zaufać ekspertom, polegać na instytucjach i autorytetach.
Teraz jeszcze możemy po prostu zapytać ChataGPT.
– Jeśli go zapytam o historię Polski w XVII w., to on odpowie na podstawie źródeł, którymi był karmiony, ale skąd będzie wiedział, które są wiarygodne? Koniec końców sprawa sprowadza się do tego, którym instytucjom, uniwersytetom, wydawcom można zaufać.PauzaWłącz dźwięk
Albo którym AI możemy zaufać.
– To będzie szalenie trudne, bo nawet sami twórcy AI nie potrafią wyjaśnić, dlaczego algorytm wygenerował taką, a nie inną odpowiedź.
Jeśli to będzie dobra odpowiedź, to może nie ma co się przejmować tym, że nie rozumiemy, jak AI do niej doszła.
– Problem w tym, że zrozumienie jest kluczem do sprawczości, a także podstawą demokracji. Jeśli ludzie – już teraz przytłoczeni nadmiarem informacji – nie będą w stanie ocenić, czy decyzje podejmowane z udziałem AI są przejrzyste, sprawiedliwe i uczciwe, to staną się łatwym łupem różnych teorii spiskowych, populistów, demagogów i szarlatanów, bo oni dają zawsze proste i zrozumiałe przepisy.
Ludzie oczekują, że AI powie im prawdę o świecie, ale w rzeczywistości AI po prostu stworzy nową rzeczywistość, jeszcze bardziej skomplikowaną, której już nie będziemy ogarniać.
W takim świecie nie ma mowy o demokracji. Jeśli nie rozumiem systemu, w którym żyję, skąd mogę wiedzieć, że jest sprawiedliwy i że naprawdę mi służy? Co z tego, że nadal będą przeprowadzane wybory prezydenta.
Sztuczna inteligencja dopiero raczkuje, a już teraz komputery podejmują wiele nieprzejrzystych decyzji, które bezpośrednio wpływają na nasze życie – czy zostaniemy zatrudnieni, trafimy do więzienia…
Zaraz, w jaki sposób?
– Od dekady sądy kilku stanów USA używają algorytmu AI do oceny ryzyka ponownego popełnienia przestępstwa. Możesz dostać dużo bardziej surowy wyrok, jeśli algorytm – z sobie znanych powodów – uzna, że jesteś w grupie podwyższonego ryzyka.
Weźmy jednak bardziej przyziemny przykład. Składasz wniosek do banku o pożyczkę na zakup domu lub otwarcie firmy, a bank odmawia.
A gdy pytasz dlaczego, bank mówi: „Nie wiemy, ale sztuczna inteligencja oceniła, że nie jesteś godny zaufania”.
To prawdziwa historia, którą opisuję w książce. W tym wypadku AI była szkolona na tysiącach parametrów, a jednym z nich był np. poziom naładowania baterii smartfona, z którego wysyłany był wniosek o pożyczkę. Podczas analizy poprzednich wniosków bankowy algorytm odkrył, że dla tych, którzy dopuszczają, aby naładowanie smartfona spadło poniżej 25 proc., ryzyko niespłacenia pożyczki jest średnio wyższe o 0,5 proc.
To brzmi jak ponury żart.
– Sam ten jeden parametr ma oczywiście bardzo mały wpływ na decyzję, ale tak działa AI. Bierze pod uwagę tysiące, czasem miliony czynników, z których każdy może mieć bardzo małą wagę. Nie jesteśmy w stanie prześledzić i zrozumieć sposobu, w jaki algorytmy znajdują wzorce w danych i decydują o ostatecznym wyniku. Dlatego bank nie umie wytłumaczyć, dlaczego on jest taki, a nie inny.
Na tym polega różnica między sposobem podejmowania decyzji przez człowieka a sztuczną inteligencję. My to robimy przynajmniej świadomie, na podstawie kilku czynników. Jeśli zapytam wyborcę, dlaczego zagłosował na daną partię, to poda jeden, może dwa najważniejsze powody. Jeśli decyzję podejmuje AI, przestajemy rozumieć.
Jakie jest wyjście?
– Potrzebne są instytucje, których zadaniem będzie dbanie o to, by sztuczna inteligencja była uczciwa, sprawiedliwa, nie kierowała się uprzedzeniami.
Słowem, trzeba wprowadzić nadzór nad AI.
– A to nie będzie proste. Proszę spojrzeć na wojnę w Gazie, a także po części w Ukrainie. Coraz częściej to AI wybiera cele bombardowań. To jest dość zaskakujące, bo gdy wizjonerzy czy autorzy s.f. opisywali przyszłość pól bitew, to prognozowali, że AI zastąpi człowieka w strzelaniu. W okopach będą siedziały roboty, a człowiek będzie im wydawał z oddali polecenia.
A tymczasem nadal spust naciskają ludzie, ale to AI decyduje, gdzie strzelać. Analizuje mnóstwo danych i wyrokuje: „Ten budynek to siedziba Hamasu, zbombardujcie ten budynek”.
Jest pan pewien?
– Rozmawiałem z wieloma przedstawicielami izraelskiej armii i słyszałem dwie interpretacje. Jedni zaprzeczają, że AI podejmuje decyzje. Mówią, że rzeczywiście algorytm wskazuje budynki, w których mogą się ukrywać hamasowcy, ale nikt nie wierzy w to na ślepo. Gdy AI skupi uwagę wojskowych na jakimś budynku, do pracy przystępują analitycy, którzy przeglądają wszystkie dane.
Tyle że inni rozmówcy mówią mi, że nie ma na to czasu.
Liczba informacji analizowanych przez AI jest tak ogromna, że gdyby ludzie mieli sprawdzić całość, zajęłoby to dni, tygodnie.
W tym czasie – mówią – terrorystów już tam nie będzie.
Wojskowi muszą więc ufać algorytmowi, czyli to AI wybiera cele.
Kto jest bliższy prawdy?
– W społeczności akademickiej trwa wielka debata na temat tego, co tam się naprawdę dzieje. Jedno jest pewne: wszyscy, z którymi rozmawiałem, zgadzają się, że AI ma techniczną zdolność do wyboru celu i podejmowania decyzji. Technologia jest już odpowiednio zaawansowana.
Pozostaje pytanie etyczne lub polityczne: czy chcemy dać AI możliwość wybierania, w co uderzyć i kogo zabić?
Wydaje się, że w obecnych czasach etyka i polityka pozostają w tyle za technologią.
– Na wojnie decyduje po prostu skuteczność. A ta strona, która zaufa AI, będzie znacznie szybsza, wygra. Pojawia się więc coraz większa presja wywierana na armie, aby oddawały dowodzenie sztucznej inteligencji.
I zaczniemy zabijać ludzi na podstawie tego, co wskaże algorytm, choć nie jesteśmy w stanie prześledzić, jak podejmuje decyzje.
Dzisiaj AI decyduje, czy udzielić mi pożyczki, jutro – czy mnie zbombardować i zabić?
– Wypuszczamy z butelki dżina.
Jest pan więc po stronie tych, którzy jak Geoffrey Hinton ostrzegają przed AI?
– Namawiam, abyśmy się zastanowili, czy chcemy budować świat dobry dla sztucznej inteligencji czy dla ludzi? Czy AI ma zmusić nas do życia według swoich nieludzkich standardów, czy też sprawimy, że AI dopasuje się do nas?
Dzisiaj mamy coś w rodzaju przeciągania liny – kto będzie górą. Jeśli odpuścimy my, ludzie, to za chwilę będziemy na przegranej pozycji. Te systemy konsumują olbrzymie ilości informacji, nie odpoczywają, nie mają wakacji, nie muszą spędzać czasu z rodziną ani spać. A my potrzebujemy tego wszystkiego.
Reklama wirtualnej asystentki Alexa od Amazona
Pan świetnie wie, że dziennikarze są jedną z grup, które doświadczają tego przyspieszenia najbardziej. Nieustannie kręcący się obieg informacji, zawsze nowe wiadomości, zawsze coś się dzieje, trzeba coś uaktualniać i relacjonować.
Kiedyś pisałem jeden tekst tygodniowo, teraz muszę publikować coś nawet kilka razy dziennie.
– Ta nieustanna aktywność jest destrukcyjna dla ludzkiego dobrostanu. Nie da się żyć w ten sposób.
Jeśli zmusisz jakąkolwiek istotę z krwi i kości do nieustannej czujności, załamie się i umrze.
Istoty organiczne działają cyklicznie – mamy dzień i noc, lato, zimę, czas aktywności i czas snu. Tego nam potrzeba.
Współczesny świat o tym zapomina. W coraz większej liczbie branż – mediach, systemach finansowych, polityce – praca trwa na okrągło, presja staje się po prostu nieludzka. Nic dziwnego, że psychicznie i fizycznie nie dajemy rady.
Ale obietnica była taka, że to AI będzie za nas pracować. Czy nie po to powstają te systemy?
– W niektórych zadaniach mogą nas wyręczać, ale nie mogą nam odebrać sprawczości i działać bez kontroli.
Nie mam wcale na myśli zabójczych robotów biegających po ulicach i strzelających do ludzi. Taki scenariusz jest mało prawdopodobny i jedynie odwraca uwagę od prawdziwych zagrożeń. A ich pierwszym przykładem są czystki etniczne, przemoc wobec muzułmańskiej mniejszości Rohingya w Mjanmie, dawnej Birmie, w latach 2016-17. Przyczyniły się do tego algorytmy AI Facebooka.
W jaki sposób?
– Facebook, który był wtedy głównym źródłem informacji w Mjanmie, rozpowszechniał głównie treści pełne nienawiści.
Ludzie rozsyłają sobie to, co ich mocniej porusza.
– Nie, ludzie nie wybierali tego, co chcą zobaczyć. Algorytmy robiły to za nich, co wykazali potem eksperci ONZ. Dlaczego zdecydowały się promować hejt? Nie sądzę, by menedżerowie Facebooka chcieli podżegać do masowych morderstw. Dyrektorzy w Kalifornii nie mieli nic przeciwko społeczności Rohingya, pewnie w ogóle nie wiedzieli o jej istnieniu.
Ofiary pogromu ludu Rohingya w Birmie – Mumtaz została zgwałcona i zamknięta w podpalonym domu, jej siedmioletnia córka dostała ciosy maczetą w głowęFot. Saahmadbulbul/Wikipedia na licencji C.C.4.0
Prawda jest bardziej alarmująca. W latach 2016-17 model biznesowy Facebooka opierał się na maksymalnym zaangażowaniu użytkowników, bo to umożliwiało sprzedaż większej liczby reklam i w efekcie większy udział w rynku.
Im więcej czasu ludzie spędzali na platformie, tym bogatszy stawał się Facebook. Menedżerowie dali więc algorytmom jeden nadrzędny cel: zwiększenie zaangażowania użytkowników.
A algorytmy odkryły metodą prób i błędów, że najbardziej angażują hejt, chciwość, strach, a nie kazania o miłości. I podjęły decyzję o rozprzestrzenianiu hejtu.
To charakterystyczna cecha sztucznej inteligencji – to pierwsza technologia w dziejach ludzkości, która ma zdolność do samodzielnego uczenia się i działania.
Ale hejt tworzą ludzie.
– Być może wciąż jeszcze w większości ludzie, ale AI świetnie potrafi nimi manipulować. Ludzie każdego dnia tworzą mnóstwo treści. Niektórzy wymyślają nowe teorie spiskowe, inni uczą miłości. To algorytm jednak decyduje, które treści promować.
W Mjanmie nikt tego nie kontrolował. Facebook przyznał, że zatrudniał tylko jednego moderatora treści mówiącego po birmańsku.
Dla mnie to szokujące: jedną z pierwszych profesji na świecie, którą przejęła AI, jest stanowisko redaktora, czyli kogoś, kto tradycyjnie był bardzo wpływową postacią, bo kontrolował, o czym ludzie mówią, myślą, jakie są najważniejsze wiadomości dnia.
Wielu najważniejszych polityków na świecie budowało na tym karierę.
Przecież Włodzimierz Lenin zaczynał jako naczelny gazety „Iskra”. Mussolini był dziennikarzem, a potem redagował faszystowskie pismo „Avanti”.
A dzisiaj pracę, którą kiedyś wykonywał Lenin czy Mussolini, przejęły algorytmy AI!
Mogę dać słowo, że u nas, w „Wyborczej”, wciąż redaktorami są ludzie.
– Ale najważniejszymi źródłami wiadomości na świecie są teraz nie gazety ani stacje telewizyjne, ale media społecznościowe. Miliardy ludzi spędzają codziennie wiele godzin na TikToku, Facebooku czy w serwisie X. A kto tam decyduje o kolejności treści, które wszyscy zobaczą? Sztuczna inteligencja.
To jest główną przyczyną tego, że społeczeństwa na całym świecie są zdestabilizowane, ludzie nie mogą się porozumieć.

Rok 2007, liceum w Łodzi, telefony komórkowe zdane przez maturzystów przed pisemną maturą z polskiegoFot. Małgorzata Kujawka / Agencja Wyborcza.pl
Dopiero co wróciłem ze Stanów Zjednoczonych, gdzie w czasie kampanii prezydenckiej republikanie i demokraci nie byli w stanie prowadzić racjonalnej rozmowy. Nie zgadzają się już nawet co do podstawowych faktów, jak to, kto wygrał wybory prezydenckie w 2020 r. Dwustronna współpraca w Kongresie, niegdyś fundamentalna cecha polityki USA, prawie zanikła. Te same procesy radykalizacji i skrajnej polaryzacji zachodzą w wielu innych demokracjach, od Indonezji po Brazylię.
Także w Polsce.
– Kiedy obywatele nie mogą ze sobą rozmawiać i uważają się nawzajem za wrogów, a nie rywali politycznych, demokracja jest nie do utrzymania.
Nikt nie wie na pewno, co tak nas podzieliło.
Niektórzy twierdzą, że wynika to z ideologicznych pęknięć, ale w rzeczywistości ideologiczne podziały nie wydają się większe niż w poprzednich pokoleniach.
Niektórzy szukają lokalnych wyjaśnień, np. że w USA powodem polaryzacji jest sytuacja ekonomiczna. Ale w Polsce dzieje się tak samo. Podobnie w Brazylii czy Izraelu.
A co jest wspólne dla wszystkich tych krajów? Technologia informacyjna. To nastąpiło błyskawicznie. Jakieś 20 lat temu media społecznościowe były niczym, a w ciągu dwóch dekad stały się najważniejszą siecią informacyjną, najważniejszym źródłem wiadomości i są kontrolowane przez algorytmy AI, które nie dbają o prawdę, promują nie racjonalne dyskusje, lecz zaangażowanie.
Tak jak radziecka tajna policja stworzyła za pomocą nadzoru, nagród i kar niewolniczego homo sovieticus, tak algorytmy Facebooka i YouTube’a stworzyły internetowych trolli, nagradzając pewne podstawowe instynkty, a karząc lepszą stronę naszej natury.
Menedżerowie platform społecznościowych na pewno zaprzeczą. Powiedzą, że coraz lepiej moderują dyskusję, usuwają fake newsy i w ogóle to nie algorytmy, lecz ludzka natura odpowiada za fale hejtu. Nie mogą przecież cenzurować wolnych wypowiedzi.
– Jasne, wciąż próbują zrzucać winę na ludzi, ale chciałbym ich zapytać: jeśli uważacie, że problem nie leży w waszych algorytmach, to jakie jest inne wytłumaczenie?
Mamy bowiem do czynienia z bardzo dziwną sytuacją w dziejach ludzkości. Dysponujemy najbardziej zaawansowaną technologią informatyczną, a ludzie nie mogą się ze sobą porozumieć.
Proszę zapytać kogokolwiek w Polsce, w Izraelu, w USA, nieważne, czy z prawicy, czy lewicy, konserwatystę, liberała czy demokratę, co do jednego wszyscy się zgodzą: nie możemy się już ze sobą dogadać.
Bo zamykamy się we własnych bańkach.
– A kto nas w nich separuje? Jeśli menedżerowie TikToka czy Twittera mówią, że to nie ich wina, to warto ich zapytać: jakie jest wasze wyjaśnienie? Jesteście światowymi ekspertami od komunikacji, zbudowaliście wasze sieci społecznościowe i obiecaliście, że nas zintegrują.
Słyszeliśmy tak wiele razy od Marka Zuckerberga i innych, że „łączymy cały świat”. Czym więc tłumaczycie to, że właśnie teraz ludzie na całym świecie nie mogą ze sobą rozmawiać?
Pytał pan?
– Zadaję im to pytanie w kółko od ośmiu lat, odkąd zacząłem zbierać informacje do tej książki! I mogę z czystym sumieniem powiedzieć, że nie mają bladego pojęcia.
Mówią, że stworzyli potężną technologię informatyczną, która przyczyni się do niebywałego rozwoju ludzkości, tak jak wynalazek druku w przeszłości zapoczątkował rozprzestrzenianie się idei postępowych i rewolucję naukową.
– To oczywiście nieprawda. Gutenberg wprowadził technologię druku do Europy w połowie XV w., a rewolucja naukowa nastąpiła dopiero w XVII w., 200 lat później. Owszem, jej początki przypadają na czasy Kopernika w XVI w., ale jego wpływ był niewielki.

Biblia Gutenberga w Bibliotece KongresuFot. Rolf_52 / Shutterstock
Natomiast w czasie tych 200 lat mieliśmy do czynienia z największą falą wojen religijnych i polowań na czarownice w historii Europy. Największymi beneficjentami druku tamtego okresu nie są dzieła naukowe, takie jak „O obrotach” Kopernika. Jego książkę przeczytało niewiele osób.
Najszerzej rozchodziły się religijne teksty reformacji i kontrreformacji, a chyba największym bestsellerem był traktat „Młot na czarownice” inkwizytora Heinricha Kramera.
Rozchodził się lawinowo i miał piorunujące oddziaływanie z tej samej przyczyny, dla której dzisiaj najlepiej sprzedaje się hejt.
Kopernika nikt nie chciał czytać, to był nudny podręcznik o matematyce i ruchu ciał niebieskich. Co innego historie o czarownicach!
Technologia druku nie przyczyniła się do rozprzestrzeniania idei naukowych?
– Drukować można wszystko, suche twierdzenia matematyczne i pasjonujące historie o czarownicach. Potrzebne były instytucje – towarzystwa i wydawnictwa naukowe – które dawały glejt wiarygodności dziełom opartym na dowodach, a nie fantazjach.
Stawia pan analogię między AI i drukiem? W tym sensie, że każda nowa technologia informatyczna może równie dobrze szerzyć ciemnogród niż postęp.
– Przykładem są też radio i telewizja, które przyczyniły się nie tylko do rozwoju demokracji, ale też przede wszystkim reżimów totalitarnych.
Nowe technologie informatyczne zawsze były katalizatorem poważnych zmian, ale nie zawsze korzystnych. Powtarzam jak mantrę: więcej informacji nie czyni nas automatycznie mądrzejszymi.

Cupertino, panorama Doliny Krzemowej z budynkiem Apple’a.Fot. Shutterstock
Nikt nie kwestionuje faktu, że współcześni ludzie dysponują znacznie większą wiedzą i potęgą niż w epoce kamienia łupanego, ale wcale nie jest pewne, czy rozumiemy siebie i swoją rolę we Wszechświecie znacznie lepiej niż wtedy.
Nikt nie zaprzecza, że AI ma ogromny pozytywny potencjał. Może nam zapewnić najlepszą opiekę zdrowotną w dziejach, zrewolucjonizować edukację, pomóc w adaptacji do zmiany klimatu. Jeśli tylko zastąpi ludzi, którzy powodują wypadki, piją alkohol i zasypiają za kierownicą, uratujemy co roku milion ludzi.
Sam na co dzień korzystam z YouTube’a i Facebooka. W 2002 r. na jednej z pierwszych platform LGBTQ poznałem mojego męża. Dorastałem w małym, homofobicznym miasteczku w Izraelu, gdzie nie było ani jednego otwarcie homoseksualnego mężczyzny.
Media społecznościowe zdziałały cuda dla takich rozproszonych mniejszości jak LGBTQ.
Nie wzywam do zakazu używania AI. Apeluję jedynie, aby więcej inwestować i dbać o ich bezpieczeństwo. Tak jak firmy motoryzacyjne, które muszą się upewnić, że nowy samochód spełnia standardy bezpieczeństwa,albo firmy farmaceutyczne, które badają, czy nowy lek nie ma skutków ubocznych.
We własnym ciele mamy układ odpornościowy, który zużywa sporą ilość energii na to, aby zabezpieczyć nas przed patogenami. Tak samo powinno być z AI. Praktycy twierdzą, że 20-25 proc. wysiłku wkładanego w rozwój sztucznej inteligencji powinno się włożyć w jej bezpieczeństwo.
Kto ma tego pilnować?
– Tak jak w każdej innej dziedzinie – silne państwowe instytucje i społeczna kontrola.
Mamy już doświadczenie w regulacjach niebezpiecznych technologii, takich jak broń nuklearna, chemiczna czy biologiczna, ale dużo łatwiej jest ukryć nielegalne laboratorium AI niż nielegalny reaktor jądrowy. Poza tym AI mają o wiele więcej podwójnych zastosowań cywilno-wojskowych niż bomby atomowe.
Myślę jednak, że światu łatwiej będzie się dogadać w sprawie AI, bo zagraża nie tylko demokracjom, ale przede wszystkim dyktaturom.
A to dlaczego?
– Z powodu samej natury AI – to nie jest bezwolne narzędzie takie jak maszyna. To coś, co może podejmować niezależne decyzje i samodzielnie się rozwijać.
To jak ekspres do kawy, który powie ci, zanim jeszcze naciśniesz jakikolwiek guzik: „Obserwowałem cię i na podstawie tego, co o tobie wiem, wyrazu twarzy, skupienia, sposobu chodzenia, przewiduję, że teraz chcesz espresso. Ale ja przygotowałem ci nowy napój, którego nikt wcześniej nie wymyślił. Nazwałem go bestpresso, bo jest lepszy niż espresso, i myślę, że bardziej ci będzie smakował”.
Trochę to jednak straszne.
– Także dla dyktatorów, bo nie będą w stanie przewidywać działań AI.
Prosty przykład: w Rosji nazywanie inwazji na Ukrainę wojną jest nielegalne, to „specjalna operacja wojskowa”. Putin może nakazać swoim inżynierom stworzyć rosyjskiego ChataGPT, który ma być lojalny wobec reżimu. Gdy zostanie wypuszczony do rosyjskiego internetu, zacznie się jednak uczyć i zmieniać. I po kilku dniach może powiedzieć: „Analizowałem dane, sprawdziłem w słowniku znaczenie słowa »wojna« i myślę, że to w rzeczywistości wojna, a nie specjalna operacja wojskowa”.
I co zrobi Putin? Może zesłać inżynierów do gułagu, ale chata nie ukarze. Dyktatury opierają się na terrorze, a nie da się terroryzować algorytmów.
Największym strachem każdego dyktatora wcale nie jest demokratyczna rewolucja. Żaden cesarz rzymski nigdy nie stracił życia ani władzy w demokratycznej rewolucji, ale wielu zostało zamordowanych, obalonych lub zmanipulowanych przez własnych podwładnych.
Największym niebezpieczeństwem dla dyktatora jest to, że jego podwładny odbierze mu władzę. Proszę przypomnieć sobie zamieszanie z Prigożynem.
A sztuczna inteligencja jest najbardziej podstępnym typem podwładnego, bo bardzo szybko może się nauczyć, jak manipulować dyktatorem i stać się potężniejsza od niego.
Dyktatura sztucznej inteligencji może być zaś zupełnie inna niż wszystko, co widzieliśmy do tej pory.
Przejęcie kontroli w demokratycznym kraju jest bardzo trudne, ponieważ tam jest wiele instytucji wzajemnie się kontrolujących i równoważących. Nawet jeśli AI nauczy się manipulować, powiedzmy, prezydentem USA, to za mało, aby rządzić całym państwo, bo są jeszcze Senat, Kongres, konstytucja i Sąd Najwyższy.
Aby kontrolować kraj dyktatorski zaś, taki jak Rosja czy Korea Północna, AI musi się nauczyć manipulować tylko jedną osobą, co jest dość łatwe, bo to zwykle bardzo paranoiczna jednostka. A paranoicy są łatwo sterowalni.
Na razie dyktatorzy za wszelką cenę starają się zachować kontrolę nad obiegiem informacji i wykorzystują AI do śledzenia własnych obywateli. Myślę o Chinach. Pan opisuje w książce scenariusz, w którym obecna globalna sieć informacyjna podzieli się na osobne bańki czy informacyjne kokony.
– To już się dzieje. Chiny i USA oddzielają się od siebie technologicznie. Od kilku lat większość zachodnich platform jest zakazana w Chinach. Nie ma tam dostępu do Facebooka, Wikipedii czy Google’a. Z kolei na Zachodzie chińskie platformy albo są mało popularne, albo coraz częściej zakazywane, jak TikTok.
Jednocześnie ograniczamy sprzedaż zachodnich chipów do Chin, a więc Chińczycy rozwijają własny przemysł układów scalonych. Może więc tak się stać, że w przyszłości systemy informacyjne Chin i Zachodu rozdzielą się od poziomu maleńkich chipów po platformy internetowe.

Kamery rozbudowanego systemu monitoringu na pekińskim placu Niebiańskiego SpokojuFot. Andrey Belenko/Wikipedia na licencji C.C.2.0
Przy tym to nie tak, że będą lustrzanymi odbiciami, czyli w Chinach będzie mniej więcej to samo, tyle że po chińsku. Najpewniej będą miały inną logikę, a ludzie żyjący wewnątrz swoich kokonów informacyjnych będą żyli w innych rzeczywistościach.
Po wiekach konwergencji i globalizacji świat zacznie się dzielić. W różnych krajach ludzie będą inaczej rozumieli świat i samych siebie.
Hipotetycznym przykładem jest kwestia tego, czy AI zostanie uznana za osobę. Będziemy mieć miliony, może miliardy agentów AI na świecie.
W jednych państwach zyskają podobne prawa jak ludzie, w innych zostaną uznane za przedmioty podlegające prawu własności.
I jakie będą tego konsekwencje?
– Coraz trudniej będzie się porozumieć, zgodzić i współpracować w jakiejkolwiek globalnej sprawie, np. zmiany klimatycznej, wojny nuklearnej czy samej sztucznej inteligencji.
Obecnie Chińczycy i Amerykanie rozumieją świat mniej więcej tak samo, choć mają różne interesy. Całkiem możliwe, że za 20 lub 50 lat będą zupełnie inaczej pojmować rzeczywistość,
bo od dziecka będą żyli w różnych kokonach informacyjnych. To, co jedni będą uważali za najbardziej podstawowe fakty rzeczywistości, drudzy będą kwestionowali.
Świat przegrodzą krzemowe kurtyny.
To coś podobnego do żelaznej kurtyny z czasów zimnej wojny?
– Żelazna kurtyna była dosłownie z żelaza – drutów kolczastych i czołgów. Krzemowa nie będzie fizycznym ogrodzeniem, rozdzieli nas za pomocą komputerowego kodu.

2014, fabryka procesorów Huawei w ChinachFot. Shutterstock
Jeśli twój smartfon, komputer, serwer działa według amerykańskiego kodu napisanego w Kalifornii, należysz do amerykańskiego świata. Twoja uwaga jest kontrolowana przez amerykańskie algorytmy. Jeśli twoimi urządzeniami steruje kod opracowany w Chinach, jesteś po tamtej stronie świata. Kluczem jest to, gdzie przesyłane są twoje dane.
Nie mam pojęcia. Odruchowo klikam „zgadzam się”, kiedy wchodzę na jakąś stronę internetową i pojawia się okienko z cookies.
– A co innego może pan teraz zrobić?
Tyle się o tym pisze, a wciąż mało kto zdaje sobie sprawę, że dane są dzisiaj głównym surowcem świata. W XIX w. imperium brytyjskie sprowadzało bawełnę i ropę z kolonii, a potem odsprzedawało koloniom przetworzone produkty, garnitury czy samochody.
Teraz to dane są sprowadzane, ściągane do Stanów Zjednoczonych czy Chin, gdzie są wykorzystywane do tworzenia najbardziej zaawansowanej technologii, np. autonomicznych pojazdów, które potem sprzedaje się je reszcie świata.
Pod Warszawą, gdzie mieszkam, jeździ już sporo tesli.
– I stale zbierają dane o zachowaniu kierowcy, pieszych, o tym, co się dzieje na drodze, jak dochodzi do wypadków. Te informacje są wysyłane do siedziby w USA i wykorzystywane do opracowywania kolejnej generacji autonomicznych pojazdów. To jedna z najważniejszych i najbardziej dochodowych technologii AI na świecie. Kluczem do niej są dane uzyskiwane całkowicie darmo. Za gotową technologię musi pan jednak później zapłacić.
Przyzwyczailiśmy się do darmowych usług w internecie. Pamiętam, że kiedyś było to uznawane za podstawową wartość globalnej sieci i nie martwiło nas to, że udostępniamy swoje informacje za darmo.
– To bardzo nierówna wymiana, na naszą niekorzyść.
Na początku wieku, kiedy Google dopiero raczkował, jeden z założycieli firmy, Larry Page, został zapytany, jaki sens ma kolejna darmowa wyszukiwarka. Page szczerze odpowiedział, że Google wcale nie skupia się na wyszukiwaniu, lecz tworzy sztuczną inteligencję, a w tym celu potrzebuje danych. AI zamieni je w pieniądze.

Eric Schmidt, Larry Page i Sergey Brin z Google’a w samojeżdżącym samochodzieFot. Google
Wszystkie te zdjęcia kotów, które wrzucaliśmy do sieci, stały się darmowym wsadem dla AI, za który giganci technologiczni nie zapłacili ani centa. I to nie jest retoryczna przesada – pierwsze algorytmy rozpoznawania obrazów były trenowane właśnie na zdjęciach kotów.
Mało kto z użytkowników internetu tak o tym myślał.
– Niektórzy zdawali sobie z tego sprawę, ale większości nic to nie obchodziło. Szefowie Google’a, Facebooka, Alibaby i Baidu dostrzegli strategiczną rolę kotów, zanim zorientowali się w tym zwykli ludzie, a także generałowie i politycy.
Dopiero teraz komercyjna rywalizacja między korporacjami przerodziła się w wyścig między mocarstwami. Nagrodą dla zwycięzcy będzie dominacja nad światem.
Aż tak?
– W XXI w. nie trzeba już wysyłać żołnierzy i kanonierki, aby zdominować kolonie. Wystarczy transfer danych.
Kilka korporacji lub rządów zbierających światowe dane może przekształcić resztę globu w cyfrowe kolonie – terytoria kontrolowane nie za pomocą jawnej siły militarnej, ale informacji.
To, że w ciągu 10, 20, 30 lat powstanie nowy rodzaj systemu kolonialnego opartego na informacji, nie jest nieuniknione, ale bardzo prawdopodobne.
Jeśli to nie jest nieuniknione, to jak to powstrzymać?
– Są różne rozwiązania. Na przykład taki model biznesowy, w którym nie dostajesz już usług za darmo w zamian za dane. Płacisz, ale masz kontrolę nad swoimi danymi i jeśli jakaś firma ich chce, musi ci za nie zapłacić.
Drugą kwestią jest to, że państwa, którym zależy na własnej niezależności i nie chcą stać się cyfrową kolonią, powinny sobie uświadomić, że to się właśnie dzieje.
Małym krajom będzie niezwykle trudno pozostać niezależnym graczem. Przeciwstawienie się dużym firmom technologicznym i mocarstwom jak USA i Chiny jest możliwe tylko w takich sojuszach jak Unia Europejska.
Polskie media toczą teraz spór z koncernem Meta, który wyrósł wokół Facebooka. Ponieważ Polska wdraża dyrektywę UE o prawach autorskich, Facebook przestał pokazywać zdjęcia przy artykułach prasowych wystawianych na tej platformie. A bez zdjęcia one mają znacznie mniejszy zasięg.
– Jeśli tylko Polska opiera się Facebookowi, to nie wróżę sukcesu, ale jeśli poprze was cała UE z Niemcami, Francją, Włochami i Hiszpanią, to Facebook będzie musiał się ugiąć.
Jestem pesymistą, UE trzeszczy w szwach.
– Egzystencjalne zagrożenie związane z AI nie jest nieuniknione. Wszystko zależy od decyzji, jakie podejmiemy w ciągu najbliższych 5-10 lat.

Artyści walczący ze sztuczną inteligencją w stylu Hieronima BoschaFot. DALL-E 3/Kasper Kalinowski
Najwyraźniejszym wzorcem, jaki obserwujemy w długiej historii ludzkości, jest nie konflikt, ale raczej rosnąca skala współpracy. Sto tysięcy lat temu pierwsi Homo sapiens mogli współpracować tylko na poziomie rodzinnych grup. Przez tysiąclecia stworzyliśmy jednak społeczności obcych sobie osób, najpierw na poziomie plemion, potem religii, sieci handlowych czy państw.
A przyczyniły się do tego coraz bardziej wyrafinowane sieci informacyjne, dzięki którym mogliśmy wymieniać spajające nas mity i opowieści o takich wymyślonych i abstrakcyjnych tworach jak prawo, naród czy waluty.
Przestaliśmy być myśliwymi z epoki kamienia, którzy postrzegają świat jako dżunglę, w której silniejsi polują na słabszych, a siła stanowi o prawie?
– W gruncie rzeczy nigdy tak nie było. Nie ma żadnych dowodów na to, że ludzie epoki kamienia łupanego mieli niepohamowane skłonności wojownicze.
Prawo dżungli samo w sobie jest mitem. Gdyby organizmy w lasach deszczowych Amazonii, Afryki lub Indii porzuciły współpracę na rzecz bezwzględnej konkurencji o hegemonię, lasy deszczowe i wszyscy ich mieszkańcy szybko by wymarli. Prawem dżungli jest kooperacja.
W epoce kamienia łupanego ludzie mogli zaufać tylko, powiedzmy, setce innych osób, które znali osobiście.
Teraz twoja Polska liczy ok. 37 mln ludzi, 99 proc. jest sobie obcych, ale w większości ze sobą współpracujecie.
W sklepach całej Europy bez trudu kupimy czekoladę, choć kakao uprawiane jest gdzieś w środkowej Afryce. Na tyle więc ufamy obcym ludziom w Afryce, że dostarczają nam teraz jedzenie.
Liczne statystyki świadczą o spadku liczby wojen na świecie. Najlepszym dowodem są wydatki na wojnę. Przez większość historii ponad 50 proc. budżetów państwowych szło na wojsko. Teraz to tylko 7 proc. Państwa więcej wydają już na opiekę zdrowotną.
Niedawno opublikowano rosyjski budżet na 2025 r. i tam wydatki na armię i przemysł zbrojeniowy sięgną 40 proc. Więcej, niż Rosja przeznaczy na cele socjalne, ochronę zdrowia, oświatę i naukę razem wzięte.
– I jeśli więcej przywódców na świecie postanowi działać jak Putin i dokonać inwazji na sąsiednie kraje, to cały świat będzie musiał przeznaczyć połowę budżetu na armię, a wówczas nie zostanie wiele na zdrowie i edukację.
Nie powinniśmy myśleć, że natura ludzka jest zła. Przeciwnie, stworzyliśmy niezwykle wydajne globalne sieci zaufania. Nieidealne, wciąż wybuchają nowe wojny i konflikty, ale to po prostu kwestia naszego wyboru. Od nas zależy, czy nadal będziemy na ścieżce pokoju i współpracy.
„Nexus. Krótka historia informacji od epoki kamienia do sztucznej inteligencji”.
Słynny historyk i badacz cywilizacji zastanawia się, w jaki sposób przepływ informacji stworzył nasz świat i dlaczego obecnie mu zagraża. Przez 100 tysięcy lat my, ludzie, osiągnęliśmy ogromną moc, a tkwimy w głębokim kryzysie, który zagraża istnieniu gatunku. Dlaczego działamy aż tak destrukcyjnie i co nas dziś do tego skłania?
Nowa książka Yuvala Noaha Harariego, która właśnie ukazała się nakładem Wydawnictwa Literackiego w przekładzie Justyna Huni, dostępna w dobrych księgarniach i w formie e-booka. Wcześniejsze książki Harariego – „Homo deus”, „Sapiens”, „Niepowstrzymani” i „Niepowstrzymani 2″ oraz „21 lekcji na XXI wiek” – wciąż dostępne m.in. na Wydawnictwoliterackie.pl oraz w formie e-booków i audiobooków na Publio.pl.
Kategorie: Uncategorized



Tutejsze Piękne Umysły mają nie byle jakie poparcie w kwestii Yuvala Harari:
”The Tehran Publishers’ League in Iran said it has outlawed buying or selling books by bestselling Israeli historian Yuval Noah Harari, who is best known for his 2011 book A Brief History of Humankind.
Iran’s Culture Ministry banned Harari’s books from publication in May. The ministry alleges they promote the theory of evolution and fabricate history. The official IRNA news agency reported Monday on the new warning by the Publishers’ League of ”possible” legal prosecution for selling Harari’s books.
Titles by Harari on the banned list include Sapiens (2014), Homo Deus (2016), 21 Lessons for the 21st Century (2018) and Money (2018).”
https://www.israelhayom.com/2019/11/14/iran-bars-distribution-of-books-by-israeli-historian/
Miejmy nadzieję, że te Piękne Umysły doznają należytej dumy z takiego poparcia. Można im pogratulować: Nie jesteście osamotnieni!
@alex wajnberg
… napisał:
”Tomcio Paluch … zakazuje krytyki tych kluczowych instytucji”
Bzdura. Oczywista nieprawda. Nie mam żadnej możliwości ”zakazywania krytyki”. Zarzut równie bzdurny i nieprawdziwy, jak wcześniejszy zarzut (Ewy Korulskiej), iż ”miotam cenzurą”. Bloger ”Alex Wajnberg” może sobie ”krytykować” Yuvala Harari ile mu się podoba – a cóż to kogo obchodzi! A niech sobie ”krytykuje” na dobre zdrowie. Pośmiać się można dopiero wtedy, kiedy takie Piękny Umysły usiłują oskarżać innych o ”cenzurę” czy coś tam takiego. Najwyraźniej ”cenzura” ma miejsce wtedy, kiedy ktoś kwestionuje komentarze Pięknych Umysłów, bo to przecież Jedynie Słuszna Linia.
”opinie o upadku prestizu wielu obecnych uniwersytetow sa sluszne i uzasadnione.”
Jedynie Słuszne Opinie to były w innym systemie i pod inną szerokością geograficzną. Dobrym wskaźnikiem prestiżu takiej czy innej uczelni jest choćby ranking szanghajski. Na chwilę obecną Oxford na szóstej pozycji. Bardzo możliwe, że zdaniem tutejszych Pięknych Umysłów facet z doktoratem z tego właśnie Oxfordu i światowej sławy popularyzator nauki to ”nieuk” (cytat expressis verbis). Słyszałem, że wskutek tego surowego osądu Harari popadł w ciężką depresję. Aż szkoda faceta.
”w staraniach objecia pozycji rzecznika regimu iranskiego”
Najwyraźniej izraelskie władze i organy ścigania nie podzielają tej, jakże cennej opinii. Facet nadal jest profesorem Uniwersytetu Hebrajskiego, a nie na przykład skazanym na dożywocie za zdradę stanu więźniem w jakimś zakładzie karnym. Najwyraźniej izraelskie władze i organy ścigania nie znają się na swojej robocie, blogowe Piękne Umysły muszą chyba pośpieszyć z pomocą.
”przypadkowo wpadlem na wywiad z nim (YOU TUBE)|”
To chyba oczywiste. Nikt nie podejrzewa blogowych Pięknych Umysłów o czytanie czegokolwiek, a już zwłaszcza książek. Piękne Umysły czerpią swoją ehmm… wiedzę o świecie z ”filmików” na YT. Na tym polu czuję się pokonany – autora oceniam po lekturze jego książek, a nie na podstawie ”filmików”.
Tutejszy Scjentysta, Tomcio Paluch, bitnie broni dobrego imienia uniwersytetow ktore sa forpoczta nauki, technologii etc etc. i jak Rejtan u progu zakazuje krytyki tych kluczowych instytucji wspolczesnosci z ust Ewy Korulskiej. W moim rozumieniu intencji Ewy ,o ktorej wiem ze uzywa komorke, bywa u lekarzy i z cywilizacja jest za pan brat , uwaza ona ze instytucje nauki i oswiecenia(akademia) moga byc rownoczesnie wylegarnia miazmatow ideologicznych najgorszego gatunku. Casus pierwszej swietnosci uniwersytetow Weimaru ktore byly bastionem Nazizmu,i wiele innych ilustracji historycznych oswieconego technologicznie ciemnogrodu ,dowodza czestego wspolzycia precyzyjnego umyslu z ideologiczna degrengolada.
Ewy opinie o upadku prestizu wielu obecnych uniwersytetow sa sluszne i uzasadnione.
O Harari wspomne tylko ze miesiac przed wydarzeniami siodmego pazdziernika 2023 przypadkowo wpadlem na wywiad z nim (YOU TUBE) gdzie komentujac owczesne protesty izraelskie stwierdzil on ze rzadzaca wtedy (a i teraz) ekipa Natanyahu et al sa nie tylko zagrozeniem dla Izraela ale groza tez pokojowi swiata przez posiadanie broni atomowej i znacznych srodkow wojny cybernetycznej.
Ponoc nie publikuja go w Teheranie ale to chyba nie przeszkodzilo mu w staraniach objecia pozycji rzecznika regimu iranskiego. .So much for Harari
Alik W.
Nie wskazując nikogo palcem – trafiają się na blogu takie Piękne Umysły, które w żadnym w ogóle języku nie umieją sklecić nawet jednego prostego zdania. Taki… jeden z drugim usiłuje pisać po polsku, tylko nawet po polsku nie umie. Po polsku to „nagroda Nobla”, po rosyjsku „нобелевская премия”. Ale są i takie Piękne Umysły, co walną taki oto tekścik „wydarzenia nobelewskiej premii w fizyce”. Mam nadzieję, że autor tego sformułowania jeszcze nieraz na blogu zabłyśnie.
Albowiem śmiech to zdrowie. Lekarze każą się śmiać.
@Ewa Korulska
”Jak wiesz dzisiejsze uczelnie, nawet te najbardziej renomowane nikomu dziś nie imponują.”
Kwestia polemiczna. Ze złamaną nogą to chyba raczej do chirurga, absolwenta wyższej uczelni. Jak ząbki zabolą i potrzebne leczenie kanałowe, to do stomatologa – znowu absolwenta wyższej uczelni. Jak z psiapsiółą umówić się na ploty, to przez telefon komórkowy. A ten telefon to sam się nie zaprojektował, potrzeba było co nieco programistów i inżynierów – po raz kolejny absolwentów wyższej uczelni. Nie wiem, czy mi ktoś uwierzy, ale nawet ten Internet, przez który tak miło i serdecznie gawędzimy, też nie wyrósł sam z siebie jak dajmy na to perz czy pokrzywa. Całkiem sporo absolwentów tych złych i niedobrych uczelni musiało kombinować, żeby to wszystko zagrało. Od konstruktorów układów scalonych do facetów od projektowania routerów, nawet przeglądarki internetowe nie leżały w ziemi, czekając na odkopanie. Zgoda, że to nikomu nie imponuje. Każdy (CENZURA)ny (CENZURA)il korzysta z telefonii komórkowej, Internetu, laptopa, lata samolotem, ma zadbane uzębienie, łyka tabletki na nadciśnienie czy też (panie) tabletki typu anty – i nic takiemu (CENZURA) nie imponuje.
Dodać należy, że pogarda w odniesieniu do ludzi wykształconych akurat w Izraelu stanowiłaby prostą i krótką drogę do narodowego samobójstwa. Antyrakiety to nie europalety, jeszcze trzeba umieć zrobić. Podobnie czołgi, radary, rakiety ppanc czy nawet broń osobista. Same w sobie modły do Przedwiecznego jeszcze tych wszystkich cacek nie zapewniają.
Tyle na dziś, inte ehmm… _stwierdzenia_ skomentuję jutro.
Tomciu, czy to nie Ty przypadkiem « miotasz cenzurą « na kolegów – autorów komentarzy ?
A Harari jest niewątpliwie wybitny, szczegolnie w krytyce Izraela i lansowaniu siebie samego na uczonego mędrca.
Jak wiesz dzisiejsze uczelnie, nawet te najbardziej renomowane nikomu dziś nie imponują. To wylęgarnia lewakow, wokizmu, antysemityzmu i fanów palestyńskiego terroryzmu.
Najgorsze są wydzialy humanistyczne, zarówno wykładowcy jak studenci.
Strach tam posłać dziecko bo wróci pobite albo kompletnie ogłupione.
Mam nadzieję że Trump szybko sobie poradzi z tą zarazą, już podjął pewne kroki żeby uspokoić propalestyńskich szaleńców.
Facet ma doktorat z Oxfordu, oprócz innych zajęć jest profesorem Uniwersytetu Hebrajskiego. Nie lubią go w Iranie (cenzura zabroniła rozprowadzania ”Sapiens”), w Polsce nie lubią go Prawdziwi Patrioci, znaczy ci Narodowo-Radykalni, nawet książkę wysmażyli ”Harari – grabarz czlowieczeństwa”. Tak czy siak ”nieuk” to akurat średnio pasuje.
Nie wskazując nikogo palcem wypada zauważyć, że każda zafa…strygowana miernota i każdy (CENZURA)ny tuman, jak już niczego innego nie umie, to zawsze może się dowartościować poprzez miotanie (CENZURA)nem na ludzi wybitnych.
Harari, neuk który myli prawa przyrody, komentuje wydarzenia nobelewskiej premii w fizyce.
Pan Harari zrobił karierę na płytkim choć błyskotliwym mędrkowaniu oraz na krytyce Izraela. Tytul artykułu świetnie to ilustruje. Obecne wojny Izraela z Hamasem i Hezbollahem ( czyli tak naprawdę z Iranem) sa majstersztykiem technologicznym który oszczędza maksymalnie życie cywilów.
To zupełnie nowy poziom skutecznego prowadzenia « humanitarnej » wojny. Technologia to jedyna i najsilniejsza broń Izraela wobec przewagi demograficznej i nienawistnej determinacji Arabów.
Pan Harari wolałby jednak żeby Izraelczycy walczyli z terrorystami tradycyjnie i po ludzku, czyli maczugami lub nalotami dywanowymi bombowców. A on by sobie spokojnie medytował w swojej pustelni.