Skocz do zawartości

Inicjatywa przeciwko broni autonomicznej


karambolis8
 Udostępnij

Rekomendowane odpowiedzi

Jakość algorytmu opiera się na wiedzy i doświadczeniu wąskiej grupy ludzi, która go tworzy. Nie biorą w tym udziału żadne miliony osób. Algorytm uczy się co prawda na próbce statystycznej, ale ograniczonej wielkości, za której zgromadzenie trzeba zapłacić. Przemysł zbrojeniowy ma na siebie zarabiać. Gdzie widzicie dwa potencjalne punkty cięcia kosztów? Podpowiem, że w zbrojeniówce programiści i inni specjaliści IT zarabiają nawet kilkukrotnie mniej niż koledzy z branży zatrudnieni w sektorze prywatnym.

 

Komputery są lepsze w niektórych zastosowaniach niż ludzie. Np w powtarzalnych skomplikowanych obliczeniach matematycznych są wielokrotnie szybsze i nie popełniają błędów. Są dobre w wyszukiwaniu schematów, odnajdywaniu powtarzających się wzorców. Ale przykładowy algorytm nie rozpozna człowieka na podstawie jego jednego zdjęcia, bo nie ma czegoś co nazywamy wyobraźnią, intuicją, kreatywnością. Nie potrafi rozpoznać tzw wyjątków potwierdzających regułę. Na tym polu przewyższa go dowolne roczne dziecko. I przy obecnej technologii komputerów cyfrowych, którą mamy, to się nie zmieni.

 

Gdyby precyzja systemu binarnego była rozwiązaniem wszystkich problemów, to nie mielibyśmy incydentów z branży bezpieczeństwa IT, katastrof komunikacyjnych spowodowanych błędem w oprogramowaniu itp itd. Teraz te wszystkie potencjalne błędy programistów, wynikających z natury ludzkiej, cięcia kosztów, przełóżcie na broń autonomiczną. Problemem nie jest sama technologia, tylko decyzja o sposobie jej zastosowania przez ułomnego człowieka.

Odnośnik do komentarza
Udostępnij na innych stronach

Postaw mi kawę na buycoffee.to

Jakość algorytmu opiera się na wiedzy i doświadczeniu wąskiej grupy ludzi*, która go tworzy. Nie biorą w tym udziału żadne miliony osób. Algorytm uczy się co prawda na próbce statystycznej, ale ograniczonej wielkości, za której zgromadzenie trzeba zapłacić. Przemysł zbrojeniowy ma na siebie zarabiać. Gdzie widzicie dwa potencjalne punkty cięcia kosztów? Podpowiem, że w zbrojeniówce programiści i inni specjaliści IT zarabiają nawet kilkukrotnie mniej niż koledzy z branży zatrudnieni w sektorze prywatnym.

 

Komputery są lepsze w niektórych zastosowaniach niż ludzie. Np w powtarzalnych skomplikowanych obliczeniach matematycznych są wielokrotnie szybsze i nie popełniają błędów. Są dobre w wyszukiwaniu schematów, odnajdywaniu powtarzających się wzorców. Ale przykładowy algorytm nie rozpozna człowieka na podstawie jego jednego zdjęcia**, bo nie ma czegoś co nazywamy wyobraźnią, intuicją, kreatywnością. Nie potrafi rozpoznać tzw wyjątków potwierdzających regułę. Na tym polu przewyższa go dowolne roczne dziecko. I przy obecnej technologii komputerów cyfrowych, którą mamy, to się nie zmieni.

 

Gdyby precyzja systemu binarnego była rozwiązaniem wszystkich problemów, to nie mielibyśmy incydentów z branży bezpieczeństwa IT, katastrof komunikacyjnych spowodowanych błędem w oprogramowaniu itp itd. Teraz te wszystkie potencjalne błędy programistów, wynikających z natury ludzkiej, cięcia kosztów, przełóżcie na broń autonomiczną. Problemem nie jest sama technologia, tylko decyzja o sposobie jej zastosowania przez ułomnego człowieka.***

 

* A jak myślisz Adamie co robiłeś rozwiązując takie rebusy jak poniżej?

 

post-10468-0-49489700-1553169829_thumb.gif

 

Podpowiem - uczyłeś maszynę...i jak w tej sytuacji z tą wąską grupą ludzi?

 

** w takim razie powiedz mi proszę po co robią nam zdjęcia biometryczne do dowodów tożsamości?

 

*** dokładnie o tym pisałem w poście #3

 

Czyli i tak zawsze ostateczną decyzję podejmuje człowiek...

Odnośnik do komentarza
Udostępnij na innych stronach

Uczyłem maszynę rozpoznawać znaki drogowe i motocykle. Nie trafiłem na rebusy z rozpoznawaniem terrorystów :D

Są tutaj pomieszane dwa aspekty. Jedno to są dane wejściowe do "uczenia" algorytmu. I ja pisałem, może być ich spora ilość, ale może być też tendencja do ich okrajania, ze względu na koszty. Drugi aspekt to jest sama "treść" algorytmu i to się nijak nie ma do ilości danych wejściowych. Algorytm, czyli reguły przetwarzania danych, siłą rzeczy tworzy wąska grupa ludzi. Nawet jeśli uwzględnić wszystkie etapy wytwarzania oprogramowania, to będzie to max kilkanaście osób. Jeśli algorytm będzie zły, to dobre dane w dużej ilości nic nam nie dadzą.

 

Jestem po prostu przeciwny zamykaniu algorytmu w jakimś autonomicznym pudełku, który będąc obciążony ułomnością ludzi, którzy go stworzyli, zacznie podejmować decyzje o życiu i śmierci sam, bez każdorazowej akceptacji decyzji przez człowieka.

Odnośnik do komentarza
Udostępnij na innych stronach

Co po naszemu znaczy w przybllizeniu : Nacisnij spust VISa PALCEM , jak nie pomoze to popraw PARABELLUM  :D 

sądzę , że w wielu przypadkach wystarczy tylko trzymanie palca  na spuscie VIS-a.... :D  :D .....Parabellum też sie do tego  znakomicie nadaje

 

 

SDI było takim palcem trzymanym na spuscie  w tym  przypadku COLT-a , COLT-a którego tak naprawdę nie było

Odnośnik do komentarza
Udostępnij na innych stronach

Zgadzam się z karambolisem.

Najlepszym przykładem słabości algorytmów jest Boeing z jego układem MCAS, z założenia słusznym, certyfikowanym według najwyższych światowych standardów, a mającym na koncie już ponad 300 ofiar. A jego słabość polega na tym, że swoje decyzje podejmuje na podstawie sygnałów z JEDNEGO czujnika konta natarcia. Jak czujnik padnie padnie i samolot, chyba że ktoś w końcu skutecznie wyszkoli pilotow jak MCASa wyłączyć... Wyobrażacie sobie autonomiczny czołg mający na wyposażeniu operatora, który będzie pilnował żeby algorytm wybierał odpowiednie cele?

Odnośnik do komentarza
Udostępnij na innych stronach

Uczyłem maszynę rozpoznawać znaki drogowe i motocykle. Nie trafiłem na rebusy z rozpoznawaniem terrorystów :D

Są tutaj pomieszane dwa aspekty. Jedno to są dane wejściowe do "uczenia" algorytmu. I ja pisałem, może być ich spora ilość, ale może być też tendencja do ich okrajania, ze względu na koszty. Drugi aspekt to jest sama "treść" algorytmu i to się nijak nie ma do ilości danych wejściowych. Algorytm, czyli reguły przetwarzania danych, siłą rzeczy tworzy wąska grupa ludzi. Nawet jeśli uwzględnić wszystkie etapy wytwarzania oprogramowania, to będzie to max kilkanaście osób. Jeśli algorytm będzie zły, to dobre dane w dużej ilości nic nam nie dadzą.

 

Jestem po prostu przeciwny zamykaniu algorytmu w jakimś autonomicznym pudełku, który będąc obciążony ułomnością ludzi, którzy go stworzyli, zacznie podejmować decyzje o życiu i śmierci sam, bez każdorazowej akceptacji decyzji przez człowieka.

 

Sorry ale nie przekonałeś mnie.

 

Samo użycie takiej broni równoważne jest naciśnięciu spustu - czyli jest to w pełni świadoma ludzka decyzja. Co dzieje się dalej to już tylko lepsza bądź gorsza skuteczność samej broni...

 

A co z pozostałymi dwoma wskazanymi przeze mnie punktami w poście #22?

Odnośnik do komentarza
Udostępnij na innych stronach

Ale koledzy chyba nie obejrzeli pierwszego filmu. Problem nie polega na tym, czy zniszczyć cel precyzyjnie czy napalmem, a na tym, czy pozwolić AI podejmować decyzje, bo do tego sprowadza się zagadnienie broni autonomicznej. Czy autonomiczny będzie micro-dron z ładunkiem 3g prochu, czy MQ-Reaper zrzucający napalm, czy jakiś inny terminator to sprawa zupełnie wtórna.

 

Jedno z drugim akurat jest mocno powiązane. Film obejrzałem dokładnie i uważam, że jest tak skonstruowany, aby wywołać strach i sprzeciw. Autor posługuje się skrajnym argumentami i wyłącznie negatywnymi. Zawsze, kiedy jest tak jednoznaczna retoryka trzeba zacząć zadawać pytania. Żadna taka inicjatywa  nie zmieni faktu, że wojsko będzie wykorzystywać AI. Najważniejsza jest rzetelna informacja o wadach i zaletach takiego rozwiązania, a tu takiej nie ma.

Odnośnik do komentarza
Udostępnij na innych stronach

 katastrof komunikacyjnych spowodowanych błędem w oprogramowaniu

 

Ważny jest bilans strat i zysków. Co z tego, że przez błąd w oprogramowaniu doszło do 1 katastrofy jak w tym samym czasie to samo oprogramowanie zapobiegło 10 katastrofom? Bilans jest na plus.

Odnośnik do komentarza
Udostępnij na innych stronach

Paweł Praus

Dla każdego "celu" zawsze będzie dostęp do zdjęcia biometrycznego? Twarzy nie można sobie zasłonić? To że na podstawie specjalnie przygotowanego zdjęcia można rozpoznać osobę, nie znaczy, że można ją rozpoznać na podstawie dowolnego zdjęcia.

 

Nie wiem jak miałbym się odnieść do ***. Zgadzam się z tak ogólnym stwierdzeniem. Diabeł tkwi w szczegółach.

 

Wypuszczenie w powietrze drona, który ma zlikwidować cel, nie jest równoznaczne z pociągnięciem za spust. Jeśli dron się pomyli i zabije niewinnego cywila, to kogo winić? Programistę? Czy może jego przełożonego, który zaakceptował wadliwy kod? Operatora, który wypuścił drona? Jego przełożonego, który "dał zlecenie"? Dylemat jest taki sam jak w przypadku autonomicznych pojazdów. Parę miesięcy temu podczas testów samochód zabił pieszego. W przypadku kierowcy-człowieka wiadomo, kto ponosi odpowiedzialność. W przypadku samochodu autonomicznego, gdy nie było winy pieszego, kto za to odpowie?

 

Moim celem nie jest nikogo przekonać. Pierwszy post zamieściłem w celach informacyjnych, żeby budować świadomość. W trakcie dyskusji tłumaczę swoje stanowisko, jako osoby, która na co dzień zajmuje się wytwarzaniem oprogramowania i widząc jak skomplikowane jest to zagadnienie, jak często powstają pomyłki, o że nie da się ich w 100% wyeliminować, nie zaufam żadnemu algorytmowi, który miałby podejmować takie decyzje.

Odnośnik do komentarza
Udostępnij na innych stronach

Ważny jest bilans strat i zysków. Co z tego, że przez błąd w oprogramowaniu doszło do 1 katastrofy jak w tym samym czasie to samo oprogramowanie zapobiegło 10 katastrofom? Bilans jest na plus.

Identycznie jak ze szczepionkami i skutkami ubocznymi.

Odnośnik do komentarza
Udostępnij na innych stronach

Panowie....

 

polecam książki, które wypisałem. Sporo ciekawych informacji. Warto znaleźć te parę chwil i poczytać.

 

W wolnej chwili podam parę przykładów. 

 

Póki co sugeruję wszystkim kierowcom zawodowym, instruktorom jazdy, pilotom, telemarketerom rozglądać się za możliwościami przekwalifikowania. Dla nich praca skończy się najszybciej. 

 

AI (Artificial Intelligence) będzie szybsze, tańsze 24/7 100% sprawne, nie będzie strajkować....

 

GAI (Glabal A I) to już twór na poziomie naszej inteligencji - podobno powstanie do 2050 maksymalnie.... I teraz wyobraźmy sobie, że taki twór ma doskonałą pamięć, 24/7 pełne skupienie i wydajność, zasób całej wiedzy internetu... nauka angielskiego to będzie parę sekund, rolling harierra pewnie krócej, zawsze idealnie i równo...

Nauka w postępie geometrycznym.

 

SAI (Super A.I.) to już coś co trudno nam będzie sobie wyobrazić. W książce "Ludzkość Poprawiona" Grzegorz Lindberg porównuje SAI do człowieka jak my dziś do nas mrówki...

Przeciętny człowiek ma IQ ok 90 pkt. Geniusz np. 150 i dla niego jesteśmy jak dla nas dzieci z przedszkola. To gdybanie, ale SAI może mieć w skali ludzkiej np 10 000 pkt....

 

Stephen Hawking powiedział coś w stylu, że opracowanie sztucznej inteligencji może być ostatnim wynalazkiem ludzkości... 

Odnośnik do komentarza
Udostępnij na innych stronach

To jest sprowadzenie tematu do absurdu. AI potrafi pomylić się nie odróżniając twarzy człowieka od mordy krowy. Oczywiście, że to wina człowieka, tylko człowiek kiedy nie jest pewien, to ściągnie palec ze spustu, a AI podąża za algorytmami, które zwyczajnie opierają się na prawdopodobieństwie i statystyce.

 

Żołnierzy szkoli się tak aby wykonywali rozkazy automatycznie, bez pytań. Im więcej pytań, tym niższe morale, każdy wojskowy Ci to powie. Poza tym żołnierz widzi i słyszy gorzej, ma ślepą plamkę w oku, i może się zadumać o swojej narzeczonej.

 

Po to aby uzyskać automatyzm szkoli się pilotów samolotów setkami wylatanych godzin i przeróżnych ćwiczeń.

 

Prawdopodobieństwo i statystyka, to dobrodziejstwo, bo pozwala na efektywne wykorzystanie zasobów.

 

Zgadzam się z karambolisem.

Najlepszym przykładem słabości algorytmów jest Boeing z jego układem MCAS, z założenia słusznym, certyfikowanym według najwyższych światowych standardów, a mającym na koncie już ponad 300 ofiar. A jego słabość polega na tym, że swoje decyzje podejmuje na podstawie sygnałów z JEDNEGO czujnika konta natarcia. Jak czujnik padnie padnie i samolot, chyba że ktoś w końcu skutecznie wyszkoli pilotow jak MCASa wyłączyć... Wyobrażacie sobie autonomiczny czołg mający na wyposażeniu operatora, który będzie pilnował żeby algorytm wybierał odpowiednie cele?

 

Można źródła prosić?

Odnośnik do komentarza
Udostępnij na innych stronach

Z tym automatyzmem to trochę nie do końca tak. Ucząc się np. jazdy samochodem nie robimy tego po to aby automatycznie gdzieś jechać ale po to aby po analizie przez mózg wielu źródeł informacji automatycznie skierować samochód tam gdzie trzeba z odpowiednią prędkością, z zachowaniem odległości, przestrzegając przepisów lub czasami nie, itd. Ale nie polega to na totalnie automatycznych odruchach a na tym, żeby ciało stanowiło jedność z pojazdem i całość efektywnie podążała za wolną wolą.

Odnośnik do komentarza
Udostępnij na innych stronach

Ja mam kilka pytań:

Czy my jako obywatele ("wolni ludzie" - cudzysłów wstawiony celowo), czy my obywatele, mamy jeszcze jakiś wpływ na cokolwiek?

Czy możemy coś zmienić?

Jak wielu z nas przykłada rękę do tego za kilka srebrników? I dlaczego robią to tak chętnie?

Odnośnik do komentarza
Udostępnij na innych stronach

Generalnie 9x procent osób zaobserwowanych przez lata mojego życia podejmowało decyzje z prywatnych pobudek - dla własnych korzyści i dla wygody.

Więc dla mnie przykładanie ręki jest z wygody i dla chwilowych korzyści, choćby świętego spokoju.

 

Raczej jest wyznaczony obszar podejmowania decyzji niż "wolna wola". W ramach tego obszaru powiedzmy, że jest wolność wyboru.

Obszar można sobie zmieniać jeżeli ma się na to siłę i ochotę ale jest to okupione jakimś kosztem zwykle dużo większym niż "święty spokój".

Odnośnik do komentarza
Udostępnij na innych stronach

Ja mam kilka pytań:

Czy my jako obywatele ("wolni ludzie" - cudzysłów wstawiony celowo), czy my obywatele, mamy jeszcze jakiś wpływ na cokolwiek?

Czy możemy coś zmienić?

Jak wielu z nas przykłada rękę do tego za kilka srebrników? I dlaczego robią to tak chętnie?

Nie bardzo rozumiem o co konkretnie Ci chodzi. Co chcesz zmieniać i dlaczego? Uważasz, ze świat zmierza w złym kierunku?

Odnośnik do komentarza
Udostępnij na innych stronach

 Udostępnij

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.