Droni in samovozeči avtomobili kot orožje: zakaj se moramo bati hekerjev
Droni in samovozeči avtomobili kot orožje: zakaj se moramo bati hekerjev
Anonim

Če umetna inteligenca pade v napačne roke, lahko civilizirani svet pahne v kaos.

Droni in samovozeči avtomobili kot orožje: zakaj se moramo bati hekerjev
Droni in samovozeči avtomobili kot orožje: zakaj se moramo bati hekerjev

Nihče ne bo zanikal, da lahko umetna inteligenca naše življenje popelje na višjo raven. Umetna inteligenca je sposobna rešiti številne težave, ki so izven moči ljudi.

Vendar pa mnogi verjamejo, da nas bo superinteligenca zagotovo želela uničiti, kot SkyNet, ali pa bo začela izvajati eksperimente na ljudeh, kot je GLADOS iz igre Portal. Ironija je, da lahko samo ljudje naredijo umetno inteligenco dobro ali zlo.

Zakaj je umetna inteligenca lahko resna grožnja
Zakaj je umetna inteligenca lahko resna grožnja

Raziskovalci z univerze Yale, Oxforda, Cambridgea in OpenAI so objavili poročilo o zlorabi umetne inteligence. Pravi, da resnična nevarnost prihaja od hekerjev. S pomočjo zlonamerne kode lahko motijo delovanje avtomatiziranih sistemov pod nadzorom AI.

Raziskovalci se bojijo, da bodo dobronamerne tehnologije poškodovane. Na primer, nadzorna oprema se lahko uporablja ne le za lovljenje teroristov, ampak tudi za vohunjenje za navadnimi državljani. Raziskovalci so zaskrbljeni tudi zaradi komercialnih dronov, ki dostavljajo hrano. Preprosto jih je prestreči in posaditi nekaj eksplozivnega.

Drug scenarij za uničujočo uporabo AI so samovozeči avtomobili. Dovolj je, da spremenite nekaj vrstic kode in stroji bodo začeli ignorirati varnostna pravila.

Zakaj je umetna inteligenca lahko resna grožnja
Zakaj je umetna inteligenca lahko resna grožnja

Znanstveniki verjamejo, da je grožnja lahko digitalna, fizična in politična.

  • Umetna inteligenca se že uporablja za preučevanje ranljivosti različnih programskih kod. V prihodnosti lahko hekerji ustvarijo bot, ki bo zaobšel vsako zaščito.
  • S pomočjo AI lahko človek avtomatizira številne procese: na primer nadzoruje roj dronov ali skupino avtomobilov.
  • S pomočjo tehnologij, kot je DeepFake, je mogoče vplivati na politično življenje države s širjenjem lažnih informacij o svetovnih voditeljih z uporabo botov na internetu.

Ti zastrašujoči primeri zaenkrat obstajajo le kot hipoteza. Avtorji študije ne predlagajo popolne zavrnitve tehnologije. Namesto tega menijo, da bi morale nacionalne vlade in velika podjetja skrbeti za varnost, medtem ko je industrija umetne inteligence še v povojih.

Oblikovalci politik morajo preučevati tehnologijo in sodelovati s strokovnjaki na tem področju, da bi učinkovito urejali ustvarjanje in uporabo umetne inteligence.

Razvijalci pa morajo oceniti nevarnost, ki jo predstavlja visoka tehnologija, predvideti najhujše posledice in nanje opozoriti svetovne voditelje. Poročilo poziva razvijalce umetne inteligence, naj se združijo s strokovnjaki za varnost na drugih področjih in preverijo, ali je mogoče načela, ki zagotavljajo varnost teh tehnologij, uporabiti za zaščito umetne inteligence.

Celotno poročilo podrobneje opisuje težavo, bistvo pa je, da je AI močno orodje. Vse zainteresirane strani bi morale preučiti novo tehnologijo in se prepričati, da se ne uporablja v kriminalne namene.

Priporočena: