Mga drone at self-driving na sasakyan bilang mga armas: bakit kailangan nating matakot sa mga hacker
Mga drone at self-driving na sasakyan bilang mga armas: bakit kailangan nating matakot sa mga hacker
Anonim

Kung ang artificial intelligence ay nahulog sa maling mga kamay, ang sibilisadong mundo ay maaaring bumagsak sa kaguluhan.

Mga drone at self-driving na sasakyan bilang mga armas: bakit kailangan nating matakot sa mga hacker
Mga drone at self-driving na sasakyan bilang mga armas: bakit kailangan nating matakot sa mga hacker

Walang sinuman ang tatanggi na ang artificial intelligence ay maaaring tumagal ng ating buhay sa susunod na antas. Ang AI ay kayang lutasin ang maraming problema na lampas sa kapangyarihan ng mga tao.

Gayunpaman, marami ang naniniwala na ang superintelligence ay talagang nais na sirain tayo, tulad ng SkyNet, o magsisimulang magsagawa ng mga eksperimento sa mga tao, tulad ng GLADoS mula sa larong Portal. Ang kabalintunaan ay ang mga tao lamang ang maaaring gumawa ng artificial intelligence na mabuti o masama.

Bakit maaaring maging seryosong banta ang artificial intelligence
Bakit maaaring maging seryosong banta ang artificial intelligence

Ang mga mananaliksik mula sa Yale University, Oxford, Cambridge at OpenAI ay naglathala ng isang ulat tungkol sa pang-aabuso ng artificial intelligence. Sinasabi nito na ang tunay na panganib ay nagmumula sa mga hacker. Sa tulong ng malisyosong code, maaari nilang guluhin ang pagpapatakbo ng mga automated system sa ilalim ng kontrol ng AI.

Nangangamba ang mga mananaliksik na ang mga teknolohiyang may mabuting layunin ay mapahamak. Halimbawa, ang mga kagamitan sa pagsubaybay ay maaaring gamitin hindi lamang upang mahuli ang mga terorista, kundi pati na rin upang tiktikan ang mga ordinaryong mamamayan. Nababahala din ang mga mananaliksik tungkol sa mga komersyal na drone na naghahatid ng pagkain. Madaling harangin ang mga ito at magtanim ng isang bagay na paputok.

Ang isa pang senaryo para sa mapanirang paggamit ng AI ay mga self-driving na kotse. Ito ay sapat na upang baguhin ang ilang mga linya ng code, at ang mga makina ay magsisimulang huwag pansinin ang mga panuntunan sa kaligtasan.

Bakit maaaring maging seryosong banta ang artificial intelligence
Bakit maaaring maging seryosong banta ang artificial intelligence

Naniniwala ang mga siyentipiko na ang banta ay maaaring digital, pisikal, at pampulitika.

  • Ginagamit na ang artificial intelligence para pag-aralan ang mga kahinaan ng iba't ibang software code. Sa hinaharap, ang mga hacker ay maaaring lumikha ng isang bot na lalampas sa anumang proteksyon.
  • Sa tulong ng AI, maaaring i-automate ng isang tao ang maraming proseso: halimbawa, kontrolin ang isang kuyog ng mga drone o isang grupo ng mga kotse.
  • Sa tulong ng mga teknolohiya tulad ng DeepFake, posibleng maimpluwensyahan ang buhay pampulitika ng estado sa pamamagitan ng pagpapakalat ng maling impormasyon tungkol sa mga pinuno ng mundo gamit ang mga bot sa Internet.

Ang mga nakakatakot na halimbawang ito sa ngayon ay umiiral lamang bilang isang hypothesis. Ang mga may-akda ng pag-aaral ay hindi nagmumungkahi ng kumpletong pagtanggi sa teknolohiya. Sa halip, naniniwala sila na dapat pangalagaan ng mga pambansang pamahalaan at malalaking kumpanya ang seguridad habang ang industriya ng AI ay nasa simula pa lamang.

Dapat pag-aralan ng mga policymakers ang teknolohiya at makipagtulungan sa mga eksperto sa larangan upang epektibong makontrol ang paglikha at paggamit ng artificial intelligence.

Ang mga developer, sa turn, ay dapat suriin ang panganib na dulot ng mataas na teknolohiya, asahan ang pinakamasamang kahihinatnan at bigyan ng babala ang mga pinuno ng mundo tungkol sa mga ito. Nanawagan ang ulat sa mga developer ng AI na makipagtulungan sa mga eksperto sa seguridad sa iba pang larangan at tingnan kung magagamit ang mga prinsipyong tumitiyak sa seguridad ng mga teknolohiyang ito para protektahan ang artificial intelligence.

Ang buong ulat ay naglalarawan sa problema nang mas detalyado, ngunit ang pangunahing linya ay ang AI ay isang mahusay na tool. Dapat pag-aralan ng lahat ng interesadong partido ang bagong teknolohiya at tiyaking hindi ito ginagamit para sa mga layuning kriminal.

Inirerekumendang: