Kubrickova AI nočna mora, 50 let kasneje

Stanley Kubrick on the meaning of the ending of 2001 in a rare 1980 interview (Junij 2019).

Anonim

Ko je David Bowman, preživeli član posadke na krovu letala Discovery One v Stanley Kubrickju leta 2001: Space Odyssey - razstavlja HAL 9000, se osupljivi računalnik zmede v nesmiselnem, monotonskem glasu:

"Bojim se, Dave."

"Dave, moj um gre. Lahko čutim."

Ker zavest HAL-a - ali bolje rečeno, njegova logika - izgine, umre petje Daisy Bell, prvo pesem, ki jo pokaže računalnik s pravim svetom. Z odstranitvijo grožnje je vse navidez prav.

Kljub temu, da je praznoval svojo 50. obletnico tega meseca, je Kubrickova mojstrovina s svojo premiero senila nad žanrom. Njegov vpliv se razteza preko prikazov vesolja in vesoljskega potovanja, ki se dotika več kot Star Wars, Alien ali Blade Runner.

Na primer, njegov vpliv na našo vizijo umetne inteligence (AI) je očiten.

Pomislite na Amazonovo Alexo, ki, tako kot HAL, posluša, kar ste rekli.

Ampak zdaj, pet desetletij pozneje, smo se razvili mimo Kubrickove nočne more slepega, grozljivega stroja? Kako se je naše razumevanje in odnos do AI spremenilo? Ali imamo razloga, da se bojimo strojev, ki jih programska oprema izvaja?

Za Catherine Stinson, ki je pred kratkim končala podoktorsko štipendijo na zahodnem Rotmanovem inštitutu za filozofijo, je Kubrickova vizija, ki pa se precej razlikuje od sedanjega stanja AI, še vedno grozeča grožnja. Vendar grožnja ni stroj.

"Ljudje so o AI veliko razmišljali veliko drugače, nevarnost, da bi bil agent, ki bi drugače ukrepal od nas, z različnimi prednostmi, kot smo imeli, " je dejala.

"To je manj skrbi zdaj. To ne bo biti ena na ena interakcije (s čutnim strojom), da ne vemo, kako se spoprijemati. To bo nekaj, kar smo vse naše zlo vnesli v, zdaj pa ne gre za stvari, ki so razširitev problemov ljudi - vendar v večji lestvici, ki si jih ni bilo mogoče zamisliti. To ni toliko strojev, ki so drugačni od nas - to je, da reproducirajo probleme ljudi. "

Del problema, je pojasnil Stinson, je, da so ljudje tisti, ki programirajo AI. Kako lahko ljudje programirajo etične stroje? Ali so stroji lahko etični? Menimo, da smo pristojni pri sprejemanju etičnih odločitev, saj se redno odločujemo med pravilnim in napačnim, je dejala. Zanašamo se na instinkt, ki ga v vsakodnevnih situacijah poznamo od nepravičnosti.

"Toda v bolj zapletenih situacijah, ki se pojavljajo, kot so avtomobili z avtomobili, je zares težko, tudi za nekoga, ki se izobražuje o etiki, da oblikuje, kaj je prava stvar, da se v njej zgradi, " je poudaril Stinson.

Če bi na primer avtomobil preprečil, da bi se zrušil v pešce, tudi če bi to povzročilo smrt voznika? Kako ste pretehtali dve različni življenjski ogroženosti? Ali programirate avto, da bi shranili potnike v vozilu ali tiste, s katerimi bi lahko trčili?

"Ne vem, kako narediti takšno odločitev. Ne vem, da je ta odločitev nekaj, kar povprečna oseba ve, kako narediti. Potrebuje bolj previden pristop in mora biti vključen nekdo z več strokovnosti. težko je videti, da obstaja potreba, ker vsi mislijo, da so strokovnjaki, "je dodal Stinson.

Posamezniki, ki se ukvarjajo z inženirskimi in tehnološkimi tečaji, bi morali biti usposobljeni v etiki, dodala je. V nasprotju s tem bi podjetja, ki delajo v AI, imela koristi od notranjega etičnega podjetja. Akademske institucije vse bolj zahtevajo, da inženirji in računalniški strokovnjaki prevzamejo tečaje, ki se dotikajo teme. Čeprav je vprašanje "etičnih strojev" namenjeno razpravi, preprosto dejstvo, da jim lahko programirate, da opravljajo dejanja, ki so prav ali narobe, jih vključuje v "etično igro", je dejal Stinson.

"Mogoče bi lahko programirali stroj, da naredi pravo stvar bolj pogosto, kot bi si želeli. Ampak, ali obstaja razlog za strah? Seveda. V sodnem sistemu v Združenih državah se uporabljajo stroji, ki sprejemajo odločitve, ki morda niso pravilne nismo prepričani, kako sprejemajo te odločitve in ni nobene odgovornosti, čigar krivda je, če napačno odločijo, «je opozorila.

Zlasti za kazni obstajajo programi AI, ki pomagajo sodnikom, da odločijo, kakšna je prava kazen za nekoga, ki je obsojen za kaznivo dejanje. Algoritem je zasnovan tako, da je obsodba manj pristranska, če upoštevamo dejavnike preteklosti osebe, kakšno sosesko so odraščali, kakšne osebe so vedeli, predhodne aretacije, starost prvega sodelovanja s policijo itd.

Vse te stvari niso nevtralne informacije, je dejal Stinson. Takšne AI programe so kritizirani zaradi krepitve stereotipov, ki so jih oblikovali, da bi se izognili.

"Ne vemo, kakšne so nevarnosti. Del zaskrbljenosti zaradi nevarnosti poskuša predvideti, kaj bi lahko bili, in se odločiti, kaj cenimo, in kakšne stvari se želimo zgoditi, zaradi udobja, "Je dejal Stinson.

Tim Blackmore, profesor na Fakulteti za informacijske in medijske študije, je učencem že več kot desetletje poučeval leta 2001: "Space Odyssey". Odzival je Stinson, pri čemer opozarja na nevarnosti AI, ki ležijo v človeškem elementu pri igri. Za njega, ne glede na obliko, ki jo potrebuje v filmih ali knjigah, je AI vedno bila razširitev človeka.

"Miselni stroji so pogosto predstavljeni kot samozavestni o svojem obstoju in se zavedajo eksistencialnih problemov. So eden od mnogih ogledal, ki jih ljudje uporabljajo, da bi odražali, kaj naj bi bil človek, " je dejal Blackmore.

In to je nočna mora.

"Do zdaj je bil" stroj, ki vlada svetovno "vrsto nočne more. To izhaja iz šestdesetih let, ki ga je v Vietnamu močno oblikovala, pa tudi ideja, da so ti veliki računalniki, ti veliki stroji, del svetovnega pogleda, ki je nas je vodil v nečloveški, deterministični način življenja, ki bi vodil do genocidov, «je pojasnil.

Vendar današnja grožnja ni v naši viziji AI, ker je nek stroj iz prihodnosti, ki nas lahko nadvlada ali osvoji.

"Malo manj si predstavljamo WALL-E - pomočni stroj, toda to je še veliko več." To niso ljudje, ljudje delajo slabe stvari, "je dejal Blackmore in dodal, da je nervozen zaradi" pomočnika " stroji, ki jih slepo objemamo.

"Zaskrbljen sem glede teh diskov in valjev ali kaj Amazon, Google ali Facebook želim dati v naš dom naslednji. Ljudje to želijo, to je pripomoček in to je kul, ker je tako težko pobrati svoj mobilni telefon in nekaj vnesti v to ali govorimo v njej. Gremo v korito in sesemo te stvari, potem pa bomo imeli terabajti podatkov, ki plujejo v bazene, kjer bi jih bilo mogoče očistiti za vse. Te podatke lahko manipulirajo agenti AI, ki bo bolje in bolje iskati načine igranja človeških bitij, "je nadaljeval.

"Kako se bo ta tehnologija razvila, da bi ljudje lahko potisnili ljudi, to je tisto, kar je za nas slaba novica. Vstajenje robota je na mojem seznamu nižje."

menu
menu