Wiedeń 05.04.2025
Cały blog jako bezpłatny eBook w formacie pdf.
Według oficjalnych statystyk armii amerykańskiej więcej amerykańskich żołnierzy ginie obecnie w wyniku samobójstwa niż działań wroga. Ludzie nie są „maszynami do zabijania” – ale autonomiczne systemy uzbrojenia już tak. Sztuczna inteligencja zabija bez wyrzutów sumienia. Czy to sprawia, że technologia ta staje się coraz bardziej atrakcyjna dla globalnych podżegaczy wojennych? Działacze na rzecz pokoju biją na alarm. Źródło.
Kraje takie jak USA, Chiny i Izrael opracowują obecnie śmiercionośną broń autonomiczną, która wykorzystuje sztuczną inteligencję do wybierania celów. Taka broń ma zastosowanie nie tylko na wojnie. Może być użyta podczas niepokojów społecznych i demonstracji dla spacyfikowania nastrojów oraz usunięcia niewygodnych przeciwników politycznych.

W opublikowanym dwa lata temu artykule na Interesting Engineering: Stany Zjednoczone „opracowują” technologię rozpoznawania twarzy opartą na sztucznej inteligencji dla wojskowych robotów bezzałogowych, źródło, czytamy:
Kontrakt między Departamentem Obrony a RealNetworks jest wart 800 000 USD i pozwala dronom latać autonomicznie z niewielką lub żadną pomocą człowieka, podczas gdy oprogramowanie wykorzystuje techniki uczenia maszynowego (ML) do identyfikacji twarzy.
Według RealNetworks technologia ta może być potencjalnie wykorzystywana do ochrony granic, operacji poszukiwawczych i ratowniczych.
To prawda, że tę technologię można wykorzystać w celach dobrych i pożytecznych. Jak będzie naprawdę, zależy jedynie od intencji sponsora kontraktu.
Zaprogramowana maszyna do zabijania rozpozna twarz ofiary i wykona wyrok. Zamorduje „terrorystę” – każdy może nim przecież zostać – lub kogoś podobnego. Przecież to nie jest morderstwo – to są szkody kolateralne. Moja definicja terrorysty: człowiek stojący rządowi na drodze realizacji bieżących celów.
Przez ponad trzy dekady zajmowałem się głównie tworzeniem programów komputerowych, także takich, które były bardzo trudne i większość kolegów poddawała się z powodu złożoności projektu. Zapewniam was, że nie można stworzyć programu pozbawionego w 100% błędów. Nawet jeśli maszyna sama siebie programuje, robi to na bazie oprogramowania stworzonego przez człowieka. Istnieją zaawansowane systemy testowania software, jednak także i one nie dają pełnej gwarancji bezawaryjnego oprogramowania.

Autor artykułu Marek Wójcik
Mail: worldscam3@gmail.com
<Jeśli podoba Wam się to, co piszę, bardzo pomogłoby dalszemu rozpowszechnianiu tych artykułów, gdybyście je udostępniali Waszym znajomym na mediach społecznościowych.