Kako naučimo robote prav iz narobe?

algoritem na robotih v družabnih omrežjih opazi ponaredke, ki imajo napačno etikoOpomba urednika: Digital Trends je sodeloval z WebVisions, mednarodno priznano konferenco o oblikovanju, tehnologiji in uporabniški izkušnji, da bi pomagal pripeljati svetlečega Douglasa Rushkoffa na letošnji dogodek v Portlandu v Oregonu. V okviru našega partnerstva z veseljem predstavljamo tudi izbrano vsebino iz pronicljivega spletnega dnevnika WebVisions, Word. Ta teden se sodelavec Mark Wyner sprašuje, kako gremo pri poučevanju umetne inteligence prav iz napake. Uživajte!

Twitter je priznal, da je kar 23 milijonov (8,5 odstotka) njegovih uporabniških računov avtonomnih Twitterbotov. Mnogi so namenjeni povečanju produktivnosti, raziskovanju ali celo zabavi. Toda mnogi so bili ustvarjeni s škodljivimi nameni. V obeh primerih je bilo znano, da se boti obnašajo z vprašljivo etiko - morda zato, ker gre zgolj za manjše primerke umetne inteligence (AI).

Ljudje trenutno gradijo precej bolj dovršene stroje, ki se bodo v monumentalnih merilih soočali z etičnimi vprašanji. Tudi v smrtnosti ljudi. Torej, kako naj poskrbimo, da se bodo pravilno odločili, ko bo čas za to?

Vgradite ga ali ga naučite

Ključni dejavnik uspešne gradnje avtonomnih strojev, ki simbiotično sovpadajo s človeškimi bitji, je etika. In v bistvu obstajata dva načina za programiranje etike v stroje:

Najprej jih lahko trdo kodirate v njihove operacijske sisteme. Zaskrbljujoče je, da je etika subjektivna. Etika v stroju je odvisna od etike njenega ustvarjalca. Toda ljudje se ne strinjamo vedno v svoji morali. Borimo se zaradi etičnih razlik. Ko torej avtonomne stroje izdelujemo etično, gradimo v okviru obstoječih razlik.

roboti-prav-narobe-etika-2

Drugič, lahko navedete nekaj smernic, nato pa dovolite, da se stroj nauči lastne etike na podlagi lastnih izkušenj. Ta pasivni pristop pušča dovolj prostora za napačne interpretacije morale, odvisno od tega, kakšno vedenje je opaziti. Razmislite o nedavnem taljenju Microsoftovega Twitter AI, Taya, ki so ga prevarali s tvitanjem rasističnih blatenj in promocijo genocida na podlagi lažnega sklepanja na sprejeto etično normalno.

Na slednjem se ukvarja ekipa iz Georgia Tech, ki uči kognitivne sisteme, da bi se z branjem zgodb naučila, kako se vesti na družbeno sprejemljiv način. Sistem nagrajevanja, imenovan Quijote, naj bi kognitivnim sistemom pomagal prepoznati protagoniste v zgodbah, s katerimi stroji svoje lastne vrednote uskladijo z vrednotami ljudi. Nejasno je, katere metode je Microsoft uporabljal s Tayem. Če pa so bile njihove tehnike preventivne, tako kot pri učnem sistemu Georgia Tech, smo daleč od utrjevanja etike v umetni inteligenci.

Etična paraliza

Zdaj vse to temelji na zamisli, da lahko računalnik celo razume etiko. Kot kaže Alan Winfield v svoji študiji K etičnemu robotu naproti, ko računalnik naleti na etični paradoks, je rezultat nepredvidljiv in pogosto paralizira. V svoji študiji so kognitivnega robota (A-robota) pozvali, naj reši "človeškega" robota (H-robota) pred nevarnostjo. Ko je A-robot lahko rešil le enega od dveh H-robotov, se je zmedel in popustil v svoji zmedi, ne da bi prihranil niti enega.

Obstaja starodavna filozofska razprava o tem, ali je etika stvar razuma ali čustev. Med sodobnimi psihologi obstaja soglasje, da etično odločanje zahteva tako racionalne kot čustvene presoje. Kot v delu o tej temi ugotavlja profesor Paul Thagard, »so etične sodbe pogosto zelo čustvene, ko ljudje izrazijo močno odobravanje ali neodobravanje različnih dejanj. Ali so tudi racionalni, je odvisno od tega, ali je kognitivna ocena, ki je del čustev, opravljena dobro ali slabo. "

Odločitve s posledicami

Če torej kognitivni stroji nimajo sposobnosti etike, kdo je odgovoren, ko krši zakon? Zdi se, da trenutno nihče ne ve. Ryan Calo z pravne fakultete Univerze v Washingtonu ugotavlja, da "robotika prvič združuje promiskuitetnost podatkov s sposobnostjo telesne škode; robotski sistemi opravljajo naloge na načine, ki jih ni mogoče predvideti vnaprej; roboti pa vedno bolj brišejo mejo med osebo in instrumentom. "

Zakonodajni postopek je izjemno počasen, tehnologija pa po drugi strani eksponentno hiti.

Tudi zločini so lahko precej resni. Nizozemski razvijalec Jeffry van der Goot se je moral braniti - in svojega Twitterbota -, ko je policija potrkala na njegova vrata in se pozanimala o smrtni grožnji, poslani iz njegovega Twitter računa. Potem je tu še Random Darknet Shopper; nakupovalni bot z tedenskim dodatkom v vrednosti 100 USD v bitcoinih za nakupe na Darknetu za umetniško razstavo. Švedski uradniki se niso zabavali, ko so kupili ekstazi, ki jo je umetnik postavil na ogled. (Čeprav v podporo umetniškemu izražanju drog niso zaplenili, dokler se razstava ni končala.)

V obeh primerih so oblasti storile vse, kar so mogle v skladu z zakonom, vendar so človekove lastnike na koncu pomilostile, ker niso izrecno ali neposredno zagrešile kaznivih dejanj. Kako pa se to prevede, ko človek sprosti AI z namenom zlobe?

Ironična resničnost je, da raziskujemo načine, kako lahko upravljamo svoje avtonomne stroje. In poleg dvomljive sposobnosti, da jim vcepimo etiko, nas pogosto zmoti samo njihovo splošno vedenje. Ko je razpravljal o metodah, ki stojijo za njihovimi nevronskimi mrežami, je Googlov programski inženir Alexander Mordvintsev razkril: "... čeprav gre za zelo uporabna orodja, ki temeljijo na dobro znanih matematičnih metodah, dejansko presenetljivo malo razumemo, zakaj nekateri modeli delujejo, drugi pa ne."

Lahko sledimo?

Glede na vse je postopek sprejemanja zakonodaje izjemno počasen, tehnologija pa na drugi strani eksponentno hiti. Kot pojasnjuje Vivek Wadhwa z univerze Singularity, "zakoni ne morejo slediti, ker so ... zakoni v bistvu kodificirana etika. Da kot družba razvijemo konsenz o tem, kaj je dobro in kaj slabo, potem postane tisto, kar je prav in kaj narobe, nato pa postane zakonito in nezakonito. Tako gre napredovanje. Za večino teh tehnologij se nismo odločili, kaj je dobro ali slabo. "

Če zakon vseeno dohiti, si morda pišemo svojo usodo. Vse to govori o robotih, ki prevzemajo svet? Mogoče samo množično korakajo, dokler ne zapremo toliko svoje rase, da postanemo manjšina v avtonomnih bitjih. Mat.

Zadnje objave

$config[zx-auto] not found$config[zx-overlay] not found