Kako narediti robote etične tako, da jih naučite reči ne

kako učiti ai robote, kako reči no Matthias Scheutz snopičev Matthias Scheutz Kelvin Ma / Univerza Tufts Ne glede na to, ali vaš pametni telefon beleži vaše najljubše restavracije s seboj ali s spletnim brskalnikom, ki spremlja, katera spletna mesta najpogosteje obiskujete, je v vašem domu verjetno nekaj tehnologije, ki se uči o vas.

Ko se računalniki v prihodnjih letih iz orodij spreminjajo v pomočnike, se bodo učne potrebe tehnologije, ki jo uporabljamo vsak dan, eksponentno povečale. Te storitve bodo bolj izpopolnjene in dosegale veliko dlje kot danes - vendar bodo morale biti veliko pametnejše, preden bodo to storile.

Računalniški sistemi, umetna inteligenca in roboti pomočniki bodo morali zaslediti knjige o številnih temah - človeški pogovori, kulturne norme, družbeni bonton in še več. Današnji znanstveniki poučujejo umetno inteligenco lekcije, ki jih bodo potrebovali za pomoč jutrišnjim uporabnikom, urnik tečajev pa ni tak, kot bi pričakovali.

Prvi koraki k pametnejši umetni inteligenci

Lani se je v robovih Laboratorija za interakcijo med človekom in robotom na bostonski univerzi Tufts majhen robot približal robu mize. Ko je dosegel to prepado, je robot ugotovil, da se je površina, po kateri je hodil, končal in operaterju rekel: "Žal, tega ne morem storiti."

S tem je stroj potrdil, da je bilo delo, ki sta ga opravila Matthias Scheutz in Gordon Briggs, uspešno. Par sta si prizadevala, da bi svojemu robotu omogočil, da zavrne zahtevo človeškega operaterja, pri čemer je bil namizni akt samoohranjevanja preizkusnega subjekta prikaz sistema na delu.

Projekt Scheutza in Briggsa je del ključne panoge raziskav umetne inteligence. Interakcija med človekom in robotom - včasih imenovana tudi HRI - je bistveni element našega nadaljnjega dela v smeri praktične uporabe umetne inteligence. Z lahkoto je pozabiti, saj roboti za večino še vedno predstavljajo hipotetično zaskrbljenost, da se bodo morali ti stroji nekega dne integrirati z ljudmi, ki naj bi jim pomagali.

Naučiti robota, kako hoditi, je eno. Naučiti istega robota, ko je varno prečkati cesto, je povsem drugače. To je jedro projekta, ki sta ga izvedla Scheutz in Briggs. Robotu so želeli omogočiti, da zavrne ukaze, ki jih je prejel, če se zdi, da bi izvajanje naloge škodilo.

Človeku se to morda zdi implicitni element gibanja. Toda roboti nimajo "zdrave pameti".

Pomen besede „ne“

Naučiti robota, da zavrne naročilo, ki ga pošlje v pogubo, je očitno koristno za robota in tudi za tistega, ki ga ima v lasti. Toda njen pomen sega daleč globlje. Pomagati robotu, da reče "ne", pomeni pomagati mu, da se nauči presojati posledice svojih dejanj.

"Na enak način, kot ne želimo, da ljudje slepo sledijo navodilom drugih ljudi, ne želimo, da bi poučni roboti izvrševali človeške ukaze, ne da bi preverili, kakšni so učinki," je dejal Scheutz za Digital Trends.

Robote moramo naučiti, da ne bodo upoštevali ukazov, ki niso etično ustrezni.

»Navodila so lahko v določeni situaciji neprimerna iz več razlogov,« je nadaljeval, »predvsem pa zato, ker lahko škodujejo ljudem ali poškodujejo premoženje, vključno s samim robotom. Z razmišljanjem o možnih izidih poučenega dejanja bo robot morda lahko zaznal morebitne kršitve norme in potencialno škodo, ki bi bila posledica tega, in bi jih lahko poskušal ublažiti. "

Ko robot v bistvu dobi navodila, da gre naprej, preveri to zahtevo glede na informacije, ki jih ima na voljo. Če se kaj zdi ribiško, lahko robot nato zaskrbljenost izrazi človeškemu operaterju in na koncu zavrne ukaz, če inštruktor nima dodatnih podatkov, da bi pomiril svoj strah.

Znanstveni postopek ne prinaša tako privlačnega naslova, kot je grožnja vstaje robota za nas ljudi. Tabloidni časopisi, kot je Daily Mail, so o delu Scheutza poročali z risanim naslovom, ki je špekuliral o bližnjem podjarmljenju naše vrste v rokah nadrejenih robotov. Znano je, da se tudi mi tukaj v DT šalimo o apokalipsi robotov. Običajno je v dobri zabavi, v takšnih primerih pa lahko škoduje raziskovalcem, da dobijo svoje sporočilo.

"Vedno se bodo našli odzivi, ki bodo raziskave izvlekli iz konteksta in se osredotočili na tisto, kar se nam zdi neprijetno, na primer na idejo, da roboti ne bodo upoštevali naših ukazov," je dejal Scheutz v poročilu Daily Maila. »Ključni vidik naše raziskave, ki ga takšni privlačni naslovi ignorirajo, pa je naučiti robota, da zavrne ukaze, ki so ni etično dober - in samo tiste. Sploh ne biti neposlušen. «

Kaj pa, če bi na primer majhen fant gospodemu robotu rekel, naj vročo kavo spusti nad svojega manjšega brata kot potegavščino? Zagotovitev, da se to ne bi moglo zgoditi, je ključnega pomena za uspeh katerega koli podjetja, ki proizvaja takšno tehnologijo za potrošniški trg, in to je mogoče le, če ima robot široko bazo socialnih in etičnih norm, na katere se lahko sklicuje poleg svoje sposobnosti reči "ne. "

Dodajanje slojev zapletenosti

Ljudje vemo, da nehajo hoditi, ko se približujejo strmemu padcu, ali zakaj je neprimerno, če dojenčka omažete v vročo kavo. Naše izkušnje so nam povedale, kaj je nevarno in kaj zgolj pomeni. Ne glede na to, ali smo v preteklosti že kaj storili ali so nam že povedali, lahko podatke, ki smo jih shranili, uporabimo za obveščanje o svojem vedenju v novi situaciji.

Roboti lahko rešujejo probleme po istem principu. Toda še nismo izdelali računalnika, ki bi se lahko učil kot človek - in tudi takrat je učenje etike proces, ki traja leta. Roboti morajo imeti na voljo vse življenje informacije, preden jih sprostijo v svet.

Obseg tega dela je presenetljiv, daleč presega pričakovanja mnogih. Poleg tega, da robota poučujejo, kako izpolniti katero koli nalogo, zaradi katere so poslani, obstaja še več zapletenosti, ki jo ponujajo številne zapletenosti interakcije med človekom in robotom.

Andrew Moore je dekan šole za računalništvo na univerzi Carnegie Mellon. V tej vlogi podpira skupino 2000 študentov in članov fakultete, od katerih mnogi delajo na področjih, povezanih z robotiko, strojnim učenjem in umetno inteligenco.

"Odgovorni smo za to, da pomagamo ugotoviti, kakšno bo leto 2040," je dejal. "Torej smo odgovorni tudi za to, da je leto 2040 zelo dobro za življenje." Glede na to, da je verjetno, da bodo roboti pomočniki imeli vlogo pri tej viziji prihodnosti, ima Moore veliko izkušenj v odnosih med strojem in uporabnikom. Da bi predstavil, kako se bo ta vez razvijala v prihodnjih letih, uporablja znani primer asistenta za pametni telefon.

Danes mnogi od nas nosijo pametni telefon, ki je sposoben odgovoriti na vprašanja, na primer »kdo je trenutni predsednik ZDA?« in bolj zapletena vprašanja, kot so "kako visoke so hčere predsednika ZDA?" Kmalu bomo videli, da bodo dejanja, ki temeljijo na teh vprašanjih, postala običajna. Telefon lahko prosite, da na primer naroči nov paket plenic.

Za prikaz naslednje faze razvoja je Moore postavil na videz neškodljiv primer vprašanja. "Ali imam čas, da grem na kavo pred naslednjim sestankom?"

Več o AI: Algoritem strojnega učenja spravi besede Georgea W. Busha v usta Baracka Obame

"Pod pokrovom je veliko znanja, ki ga mora priti do računalnika, da lahko računalnik odgovori na vprašanje," je dejal Moore. Čeprav današnja tehnologija lahko razume vprašanje, sistem potrebuje veliko podatkov za odgovor. Kakšna je vrsta v kavarni? Kakšen je promet? Kakšno pijačo uporabnik običajno naroči? Omogočanje dostopa računalnika do teh podatkov predstavlja svoje izzive.

Sistemi umetne inteligence bodo potrebovali dostop do ogromne količine informacij - od katerih so nekatere ulite v kamen, nekatere pa se ves čas spreminjajo - preprosto za izvajanje zapletenih nalog, ki jih bomo od njih pričakovali v samo nekaj letih.

Moore to ponazarja s primerjavo tona glasu, ki bi ga oseba lahko sprejela, ko govori s šefom šefa ali starim prijateljem. Nekje v vaših bankah podatkov obstaja jedro informacij, ki vam pove, da je treba prve obravnavati z določenimi socialnimi namigi, ki pri pogovoru z drugimi niso tako potrebni.

Če od Googla zahtevate, da pokaže rdeče obleke in je eden od rezultatov toaster, vse skupaj propade.

To so preproste stvari za človeka, vendar nekaj, kar je treba vgraditi v umetno inteligenco. In bolj kot je naloga nujna, bolj pomembna je natančnost. Vprašanje asistenta, če imate kavo, je eno. Kaj pa, če bi vas ranili in bi morali vedeti, do katere bolnišnice je mogoče najhitreje priti - in morda potrebujete pomoč robotov, da jo dosežete? Napaka nenadoma postane življenjsko nevarna.

"Pravzaprav je zelo enostavno napisati program strojnega učenja, kjer ga trenirate s številnimi primeri," je dejal Moore. »Ko opraviš to delo, na koncu dobiš model. To deluje precej dobro in ko zgradimo tak sistem, govorimo o "natančnosti" in uporabljamo besedne zveze, kot sta "natančnost" in "odpoklic". Zanimivo je, da je stvari, ki so pravilne 19-krat, izvlečeno iz 19-krat 20. "

»Za številne aplikacije je to že dovolj dobro. Toda v mnogih drugih aplikacijah - še posebej, kadar gre za varnost ali kadar postavljate zelo zapletena vprašanja - vaš sistem resnično potrebuje 99,9-odstotno natančnost. "

Težava je tudi zaupanje uporabnikov. "[Če] vprašate Google," pokažite mi 15 najbolj priljubljenih rdečih oblek ", in rezultati vrnejo nazaj in samo ena izmed njih je pravzaprav toaster, potem vse skupaj propade. Uporabniki mu nehajo zaupati. " Uporabnik, ki izgubi zaupanje v robota, ga bo verjetno v celoti prenehal uporabljati.

Poučevanje splošnega znanja

Tudi če ne upoštevamo posebnih nalog, ki jih je treba doseči s posamezno izvedbo, bodo roboti in umetni inteligenci potrebovali ogromno osnovnega znanja za delovanje v naravi. Vse, od družbenih znakov do varnostnih predpisov, je treba vtisniti v možgane strojev, da se zagotovi njihov uspeh.

Na srečo nekatera področja tega računalniškega učnega načrta pomagajo tudi na drugih področjih. "Glede stvari, kot sta navigacija in analiza človeškega izraza obraza, obstaja obstoječa znanstvena disciplina, ki ima dejansko veliko resničnih podatkov," je dejal Moore. Tudi posamezni raziskovalni projekti se lahko pogosto prenovijo.

"Algoritmi, na katerih delamo, so splošni," mi je povedal Matthias Scheutz, ki se je skliceval na raziskavo, ki sta jo z Gordonom Briggsom vodila na univerzi Tufts. "Uporabiti jih je mogoče v kateri koli domeni, če ima robot potrebne predstavitve dejanj in norm za to domeno."

Moduli, ki bi lahko robotu omogočili, da prepozna človeške izraze ali ne bi padel z mize, zagotovo uporabljajo. Vendar pa bi vsak ustrezal zelo majhnemu delu osnovnih zahtev stroja za nenadzorovano delovanje. Splošni OS bi lahko predstavljal osnovno raven splošnega znanja, ki bi jo lahko zlahka delili med različnimi izvedbami.

"Eden največjih donatorjev tovrstnega dela je skupina, ki financira številne druge stvari, ki so se izkazale za pomembne," je dejal Moore. »To je DARPA. Imajo številne velike projekte, ki se ukvarjajo s tem, kar imenujejo "splošno znanje za robotiko."

Če bodo umetni inteligenci in roboti pomočniki postali resničnost v ne tako oddaljeni prihodnosti, bo verjetno neka različica te platforme "splošno znanje za robotiko" ključnega pomena. Morda je celo ključ do splošnega splošnega sprejemanja.

Pred nastopom baze znanja, ki lahko podpira prvi val potrošniških robotov, je treba opraviti še veliko dela. Končni izdelek je morda oddaljen leta, vendar temelji, potrebni za njegovo ustvarjanje, niso znanstvena fantastika.

Zadnje objave

$config[zx-auto] not found$config[zx-overlay] not found