karambolis8 Opublikowano 21 Marca 2019 Autor Opublikowano 21 Marca 2019 Jakość algorytmu opiera się na wiedzy i doświadczeniu wąskiej grupy ludzi, która go tworzy. Nie biorą w tym udziału żadne miliony osób. Algorytm uczy się co prawda na próbce statystycznej, ale ograniczonej wielkości, za której zgromadzenie trzeba zapłacić. Przemysł zbrojeniowy ma na siebie zarabiać. Gdzie widzicie dwa potencjalne punkty cięcia kosztów? Podpowiem, że w zbrojeniówce programiści i inni specjaliści IT zarabiają nawet kilkukrotnie mniej niż koledzy z branży zatrudnieni w sektorze prywatnym. Komputery są lepsze w niektórych zastosowaniach niż ludzie. Np w powtarzalnych skomplikowanych obliczeniach matematycznych są wielokrotnie szybsze i nie popełniają błędów. Są dobre w wyszukiwaniu schematów, odnajdywaniu powtarzających się wzorców. Ale przykładowy algorytm nie rozpozna człowieka na podstawie jego jednego zdjęcia, bo nie ma czegoś co nazywamy wyobraźnią, intuicją, kreatywnością. Nie potrafi rozpoznać tzw wyjątków potwierdzających regułę. Na tym polu przewyższa go dowolne roczne dziecko. I przy obecnej technologii komputerów cyfrowych, którą mamy, to się nie zmieni. Gdyby precyzja systemu binarnego była rozwiązaniem wszystkich problemów, to nie mielibyśmy incydentów z branży bezpieczeństwa IT, katastrof komunikacyjnych spowodowanych błędem w oprogramowaniu itp itd. Teraz te wszystkie potencjalne błędy programistów, wynikających z natury ludzkiej, cięcia kosztów, przełóżcie na broń autonomiczną. Problemem nie jest sama technologia, tylko decyzja o sposobie jej zastosowania przez ułomnego człowieka.
Paweł Prauss Opublikowano 21 Marca 2019 Opublikowano 21 Marca 2019 Jakość algorytmu opiera się na wiedzy i doświadczeniu wąskiej grupy ludzi*, która go tworzy. Nie biorą w tym udziału żadne miliony osób. Algorytm uczy się co prawda na próbce statystycznej, ale ograniczonej wielkości, za której zgromadzenie trzeba zapłacić. Przemysł zbrojeniowy ma na siebie zarabiać. Gdzie widzicie dwa potencjalne punkty cięcia kosztów? Podpowiem, że w zbrojeniówce programiści i inni specjaliści IT zarabiają nawet kilkukrotnie mniej niż koledzy z branży zatrudnieni w sektorze prywatnym. Komputery są lepsze w niektórych zastosowaniach niż ludzie. Np w powtarzalnych skomplikowanych obliczeniach matematycznych są wielokrotnie szybsze i nie popełniają błędów. Są dobre w wyszukiwaniu schematów, odnajdywaniu powtarzających się wzorców. Ale przykładowy algorytm nie rozpozna człowieka na podstawie jego jednego zdjęcia**, bo nie ma czegoś co nazywamy wyobraźnią, intuicją, kreatywnością. Nie potrafi rozpoznać tzw wyjątków potwierdzających regułę. Na tym polu przewyższa go dowolne roczne dziecko. I przy obecnej technologii komputerów cyfrowych, którą mamy, to się nie zmieni. Gdyby precyzja systemu binarnego była rozwiązaniem wszystkich problemów, to nie mielibyśmy incydentów z branży bezpieczeństwa IT, katastrof komunikacyjnych spowodowanych błędem w oprogramowaniu itp itd. Teraz te wszystkie potencjalne błędy programistów, wynikających z natury ludzkiej, cięcia kosztów, przełóżcie na broń autonomiczną. Problemem nie jest sama technologia, tylko decyzja o sposobie jej zastosowania przez ułomnego człowieka.*** * A jak myślisz Adamie co robiłeś rozwiązując takie rebusy jak poniżej? Podpowiem - uczyłeś maszynę...i jak w tej sytuacji z tą wąską grupą ludzi? ** w takim razie powiedz mi proszę po co robią nam zdjęcia biometryczne do dowodów tożsamości? *** dokładnie o tym pisałem w poście #3 Czyli i tak zawsze ostateczną decyzję podejmuje człowiek...
jarek996 Opublikowano 21 Marca 2019 Opublikowano 21 Marca 2019 vis in pacem para bellum.................. ta zasada zawsze się sprawdzała Co po naszemu znaczy w przybllizeniu : Nacisnij spust VISa PALCEM , jak nie pomoze to popraw PARABELLUM
karambolis8 Opublikowano 21 Marca 2019 Autor Opublikowano 21 Marca 2019 Uczyłem maszynę rozpoznawać znaki drogowe i motocykle. Nie trafiłem na rebusy z rozpoznawaniem terrorystów Są tutaj pomieszane dwa aspekty. Jedno to są dane wejściowe do "uczenia" algorytmu. I ja pisałem, może być ich spora ilość, ale może być też tendencja do ich okrajania, ze względu na koszty. Drugi aspekt to jest sama "treść" algorytmu i to się nijak nie ma do ilości danych wejściowych. Algorytm, czyli reguły przetwarzania danych, siłą rzeczy tworzy wąska grupa ludzi. Nawet jeśli uwzględnić wszystkie etapy wytwarzania oprogramowania, to będzie to max kilkanaście osób. Jeśli algorytm będzie zły, to dobre dane w dużej ilości nic nam nie dadzą. Jestem po prostu przeciwny zamykaniu algorytmu w jakimś autonomicznym pudełku, który będąc obciążony ułomnością ludzi, którzy go stworzyli, zacznie podejmować decyzje o życiu i śmierci sam, bez każdorazowej akceptacji decyzji przez człowieka.
d9Jacek Opublikowano 21 Marca 2019 Opublikowano 21 Marca 2019 Co po naszemu znaczy w przybllizeniu : Nacisnij spust VISa PALCEM , jak nie pomoze to popraw PARABELLUM sądzę , że w wielu przypadkach wystarczy tylko trzymanie palca na spuscie VIS-a.... .....Parabellum też sie do tego znakomicie nadaje SDI było takim palcem trzymanym na spuscie w tym przypadku COLT-a , COLT-a którego tak naprawdę nie było
wiktoreksz Opublikowano 21 Marca 2019 Opublikowano 21 Marca 2019 Zgadzam się z karambolisem. Najlepszym przykładem słabości algorytmów jest Boeing z jego układem MCAS, z założenia słusznym, certyfikowanym według najwyższych światowych standardów, a mającym na koncie już ponad 300 ofiar. A jego słabość polega na tym, że swoje decyzje podejmuje na podstawie sygnałów z JEDNEGO czujnika konta natarcia. Jak czujnik padnie padnie i samolot, chyba że ktoś w końcu skutecznie wyszkoli pilotow jak MCASa wyłączyć... Wyobrażacie sobie autonomiczny czołg mający na wyposażeniu operatora, który będzie pilnował żeby algorytm wybierał odpowiednie cele?
Paweł Prauss Opublikowano 21 Marca 2019 Opublikowano 21 Marca 2019 Uczyłem maszynę rozpoznawać znaki drogowe i motocykle. Nie trafiłem na rebusy z rozpoznawaniem terrorystów Są tutaj pomieszane dwa aspekty. Jedno to są dane wejściowe do "uczenia" algorytmu. I ja pisałem, może być ich spora ilość, ale może być też tendencja do ich okrajania, ze względu na koszty. Drugi aspekt to jest sama "treść" algorytmu i to się nijak nie ma do ilości danych wejściowych. Algorytm, czyli reguły przetwarzania danych, siłą rzeczy tworzy wąska grupa ludzi. Nawet jeśli uwzględnić wszystkie etapy wytwarzania oprogramowania, to będzie to max kilkanaście osób. Jeśli algorytm będzie zły, to dobre dane w dużej ilości nic nam nie dadzą. Jestem po prostu przeciwny zamykaniu algorytmu w jakimś autonomicznym pudełku, który będąc obciążony ułomnością ludzi, którzy go stworzyli, zacznie podejmować decyzje o życiu i śmierci sam, bez każdorazowej akceptacji decyzji przez człowieka. Sorry ale nie przekonałeś mnie. Samo użycie takiej broni równoważne jest naciśnięciu spustu - czyli jest to w pełni świadoma ludzka decyzja. Co dzieje się dalej to już tylko lepsza bądź gorsza skuteczność samej broni... A co z pozostałymi dwoma wskazanymi przeze mnie punktami w poście #22?
MASK Opublikowano 21 Marca 2019 Opublikowano 21 Marca 2019 Ale koledzy chyba nie obejrzeli pierwszego filmu. Problem nie polega na tym, czy zniszczyć cel precyzyjnie czy napalmem, a na tym, czy pozwolić AI podejmować decyzje, bo do tego sprowadza się zagadnienie broni autonomicznej. Czy autonomiczny będzie micro-dron z ładunkiem 3g prochu, czy MQ-Reaper zrzucający napalm, czy jakiś inny terminator to sprawa zupełnie wtórna. Jedno z drugim akurat jest mocno powiązane. Film obejrzałem dokładnie i uważam, że jest tak skonstruowany, aby wywołać strach i sprzeciw. Autor posługuje się skrajnym argumentami i wyłącznie negatywnymi. Zawsze, kiedy jest tak jednoznaczna retoryka trzeba zacząć zadawać pytania. Żadna taka inicjatywa nie zmieni faktu, że wojsko będzie wykorzystywać AI. Najważniejsza jest rzetelna informacja o wadach i zaletach takiego rozwiązania, a tu takiej nie ma.
dariuszj Opublikowano 21 Marca 2019 Opublikowano 21 Marca 2019 katastrof komunikacyjnych spowodowanych błędem w oprogramowaniu Ważny jest bilans strat i zysków. Co z tego, że przez błąd w oprogramowaniu doszło do 1 katastrofy jak w tym samym czasie to samo oprogramowanie zapobiegło 10 katastrofom? Bilans jest na plus.
karambolis8 Opublikowano 21 Marca 2019 Autor Opublikowano 21 Marca 2019 Paweł PrausDla każdego "celu" zawsze będzie dostęp do zdjęcia biometrycznego? Twarzy nie można sobie zasłonić? To że na podstawie specjalnie przygotowanego zdjęcia można rozpoznać osobę, nie znaczy, że można ją rozpoznać na podstawie dowolnego zdjęcia. Nie wiem jak miałbym się odnieść do ***. Zgadzam się z tak ogólnym stwierdzeniem. Diabeł tkwi w szczegółach. Wypuszczenie w powietrze drona, który ma zlikwidować cel, nie jest równoznaczne z pociągnięciem za spust. Jeśli dron się pomyli i zabije niewinnego cywila, to kogo winić? Programistę? Czy może jego przełożonego, który zaakceptował wadliwy kod? Operatora, który wypuścił drona? Jego przełożonego, który "dał zlecenie"? Dylemat jest taki sam jak w przypadku autonomicznych pojazdów. Parę miesięcy temu podczas testów samochód zabił pieszego. W przypadku kierowcy-człowieka wiadomo, kto ponosi odpowiedzialność. W przypadku samochodu autonomicznego, gdy nie było winy pieszego, kto za to odpowie? Moim celem nie jest nikogo przekonać. Pierwszy post zamieściłem w celach informacyjnych, żeby budować świadomość. W trakcie dyskusji tłumaczę swoje stanowisko, jako osoby, która na co dzień zajmuje się wytwarzaniem oprogramowania i widząc jak skomplikowane jest to zagadnienie, jak często powstają pomyłki, o że nie da się ich w 100% wyeliminować, nie zaufam żadnemu algorytmowi, który miałby podejmować takie decyzje.
MASK Opublikowano 21 Marca 2019 Opublikowano 21 Marca 2019 Kwestie odpowiedzialności za działania automatów są rozpatrywane przez sądy już teraz. Nie widzę problemu. Ten film, nie jest filmem informacyjnym, to film propagandowy. Pisałem to wcześniej.
robertus Opublikowano 21 Marca 2019 Opublikowano 21 Marca 2019 Ważny jest bilans strat i zysków. Co z tego, że przez błąd w oprogramowaniu doszło do 1 katastrofy jak w tym samym czasie to samo oprogramowanie zapobiegło 10 katastrofom? Bilans jest na plus. Identycznie jak ze szczepionkami i skutkami ubocznymi.
dariuszj Opublikowano 21 Marca 2019 Opublikowano 21 Marca 2019 Identycznie jak ze szczepionkami i skutkami ubocznymi. W sumie to nie tylko szczepionkami, ale właściwie to wszystkimi lekami.
M.Ch. Opublikowano 21 Marca 2019 Opublikowano 21 Marca 2019 Panowie.... polecam książki, które wypisałem. Sporo ciekawych informacji. Warto znaleźć te parę chwil i poczytać. W wolnej chwili podam parę przykładów. Póki co sugeruję wszystkim kierowcom zawodowym, instruktorom jazdy, pilotom, telemarketerom rozglądać się za możliwościami przekwalifikowania. Dla nich praca skończy się najszybciej. AI (Artificial Intelligence) będzie szybsze, tańsze 24/7 100% sprawne, nie będzie strajkować.... GAI (Glabal A I) to już twór na poziomie naszej inteligencji - podobno powstanie do 2050 maksymalnie.... I teraz wyobraźmy sobie, że taki twór ma doskonałą pamięć, 24/7 pełne skupienie i wydajność, zasób całej wiedzy internetu... nauka angielskiego to będzie parę sekund, rolling harierra pewnie krócej, zawsze idealnie i równo... Nauka w postępie geometrycznym. SAI (Super A.I.) to już coś co trudno nam będzie sobie wyobrazić. W książce "Ludzkość Poprawiona" Grzegorz Lindberg porównuje SAI do człowieka jak my dziś do nas mrówki... Przeciętny człowiek ma IQ ok 90 pkt. Geniusz np. 150 i dla niego jesteśmy jak dla nas dzieci z przedszkola. To gdybanie, ale SAI może mieć w skali ludzkiej np 10 000 pkt.... Stephen Hawking powiedział coś w stylu, że opracowanie sztucznej inteligencji może być ostatnim wynalazkiem ludzkości...
MASK Opublikowano 22 Marca 2019 Opublikowano 22 Marca 2019 To jest sprowadzenie tematu do absurdu. AI potrafi pomylić się nie odróżniając twarzy człowieka od mordy krowy. Oczywiście, że to wina człowieka, tylko człowiek kiedy nie jest pewien, to ściągnie palec ze spustu, a AI podąża za algorytmami, które zwyczajnie opierają się na prawdopodobieństwie i statystyce. Żołnierzy szkoli się tak aby wykonywali rozkazy automatycznie, bez pytań. Im więcej pytań, tym niższe morale, każdy wojskowy Ci to powie. Poza tym żołnierz widzi i słyszy gorzej, ma ślepą plamkę w oku, i może się zadumać o swojej narzeczonej. Po to aby uzyskać automatyzm szkoli się pilotów samolotów setkami wylatanych godzin i przeróżnych ćwiczeń. Prawdopodobieństwo i statystyka, to dobrodziejstwo, bo pozwala na efektywne wykorzystanie zasobów. Zgadzam się z karambolisem. Najlepszym przykładem słabości algorytmów jest Boeing z jego układem MCAS, z założenia słusznym, certyfikowanym według najwyższych światowych standardów, a mającym na koncie już ponad 300 ofiar. A jego słabość polega na tym, że swoje decyzje podejmuje na podstawie sygnałów z JEDNEGO czujnika konta natarcia. Jak czujnik padnie padnie i samolot, chyba że ktoś w końcu skutecznie wyszkoli pilotow jak MCASa wyłączyć... Wyobrażacie sobie autonomiczny czołg mający na wyposażeniu operatora, który będzie pilnował żeby algorytm wybierał odpowiednie cele? Można źródła prosić?
samolocik Opublikowano 22 Marca 2019 Opublikowano 22 Marca 2019 Z tym automatyzmem to trochę nie do końca tak. Ucząc się np. jazdy samochodem nie robimy tego po to aby automatycznie gdzieś jechać ale po to aby po analizie przez mózg wielu źródeł informacji automatycznie skierować samochód tam gdzie trzeba z odpowiednią prędkością, z zachowaniem odległości, przestrzegając przepisów lub czasami nie, itd. Ale nie polega to na totalnie automatycznych odruchach a na tym, żeby ciało stanowiło jedność z pojazdem i całość efektywnie podążała za wolną wolą.
MareX Opublikowano 22 Marca 2019 Opublikowano 22 Marca 2019 Niby racja, ale czy jest coś takiego, jak "wolna wola"? To jednak zupełnie inny temat i z góry przepraszam za tak i w takim dziale postawione pytanie.
Vesla Opublikowano 22 Marca 2019 Opublikowano 22 Marca 2019 Ja mam kilka pytań: Czy my jako obywatele ("wolni ludzie" - cudzysłów wstawiony celowo), czy my obywatele, mamy jeszcze jakiś wpływ na cokolwiek? Czy możemy coś zmienić? Jak wielu z nas przykłada rękę do tego za kilka srebrników? I dlaczego robią to tak chętnie?
samolocik Opublikowano 22 Marca 2019 Opublikowano 22 Marca 2019 Generalnie 9x procent osób zaobserwowanych przez lata mojego życia podejmowało decyzje z prywatnych pobudek - dla własnych korzyści i dla wygody. Więc dla mnie przykładanie ręki jest z wygody i dla chwilowych korzyści, choćby świętego spokoju. Raczej jest wyznaczony obszar podejmowania decyzji niż "wolna wola". W ramach tego obszaru powiedzmy, że jest wolność wyboru. Obszar można sobie zmieniać jeżeli ma się na to siłę i ochotę ale jest to okupione jakimś kosztem zwykle dużo większym niż "święty spokój".
MASK Opublikowano 22 Marca 2019 Opublikowano 22 Marca 2019 Ja mam kilka pytań: Czy my jako obywatele ("wolni ludzie" - cudzysłów wstawiony celowo), czy my obywatele, mamy jeszcze jakiś wpływ na cokolwiek? Czy możemy coś zmienić? Jak wielu z nas przykłada rękę do tego za kilka srebrników? I dlaczego robią to tak chętnie? Nie bardzo rozumiem o co konkretnie Ci chodzi. Co chcesz zmieniać i dlaczego? Uważasz, ze świat zmierza w złym kierunku?
Rekomendowane odpowiedzi