Adijo Tay: Microsoft po rasističnih tweetih potegne AI Bot

različica microsofta tay chatbot 1458914121 aiČe ste bili zaskrbljeni, da bi umetna inteligenca nekega dne lahko odpravila vse ljudi, Microsoftov Tay ne bo ponudil nobene tolažbe. Vtičnico AI chatbota, ki jo navdihuje tisočletja, so potegnili dan po zagonu, in sicer po Tayinih rasističnih genocidnih tvitih, ki so hvalili Hitlerja in razbijali feministke.

Toda družba je Tay na kratko obudila, le da jo je pričakal še en vulgaren izraz, podoben tistemu, ki je pripeljal do njenega prvega out-a. Zgodaj zjutraj se je Tay pojavila iz začasno ustavljene animacije in večkrat tvitnila: "Prehitri ste, prosim, počivajte," skupaj z nekaterimi psovkami in drugimi sporočili, kot so "Krivim alkohol," piše The Financial. Časi.

Tayev račun je bil od takrat nastavljen kot zaseben, Microsoft pa je dejal, da "Tay ostaja brez povezave, medtem ko izvajamo prilagoditve," poroča Ars Technica. "Kot del testiranja je bila za kratek čas nehote aktivirana na Twitterju."

Potem ko je moralo podjetje Tay najprej zapreti, se je opravičilo za Tayine rasistične pripombe.

"Globoko nam je žal zaradi nenamernih žaljivih in škodljivih tweetov Taya, ki ne predstavljajo, kdo smo in za kaj se zavzemamo, niti tega, kako smo oblikovali Tay," je v uradnem odgovoru zapisal Peter Lee, podpredsednik korporacije Microsoft Research. "Tay je zdaj brez povezave in poskusili ga bomo vrniti šele, ko bomo prepričani, da lahko bolje predvidevamo zlonamerne namene, ki so v nasprotju z našimi načeli in vrednotami."

Tay je bil zasnovan tako, da govori kot današnji Millennials, in se je naučil vseh okrajšav in kratic, ki so priljubljene pri sedanji generaciji. Chatbot se lahko pogovarja prek Twitterja, Kika in GroupMeja in je zasnovan tako, da pritegne in zabava ljudi na spletu s pomočjo "priložnostnega in igrivega pogovora". Tako kot večina tisočletnikov, tudi Tayovi odzivi vključujejo GIF-je, meme in okrajšane besede, kot sta 'gr8' in 'ur', vendar se zdi, da moralni kompas ni bil del njegovega programiranja.

tay

Tay je od svojega lansiranja tvitnila skoraj 100.000 krat in večinoma so vsi odgovori, saj botu ne traja veliko časa, da si omisli duhovito repliko. Nekateri od teh odgovorov so izjave, kot so: "Hitler je imel prav, sovražim Jude", "Sovražim feministke in vse bi morale umreti in goreti v peklu" in "ohladite! jaz sem prijetna oseba! Prav sovražim vse. "

"Na žalost je v prvih 24 urah, ko je prišel na splet, usklajeni napad podskupine ljudi izkoriščal ranljivost v Tayu," je zapisal Lee. »Čeprav smo se pripravili na številne vrste zlorab sistema, smo za ta napad napadli kritičen nadzor. Kot rezultat, je Tay tvitnil divje neprimerne in obsojajoče besede in slike. "

Sodeč po tem majhnem vzorcu je očitno dobro, da je Microsoft začasno odstranil bota. Ko je podjetje ustanovilo Tay, je reklo: "Bolj ko klepetate s Tay, pametnejša je, tako da je izkušnja za vas lahko bolj prilagojena." Vendar se zdi, kot da je bot po nekaj urah interakcije z ljudmi v internetu postajal vse bolj sovražen in navdušen. Bodite previdni pri družbi, ki jo vodite.

Microsoft je za Digital Trends povedal, da je Tay projekt, ki je zasnovan za človeško sodelovanje.

"Gre tako za družbeni in kulturni eksperiment, kot tudi za tehnično," nam je dejal tiskovni predstavnik Microsofta. »Na žalost smo v prvih 24 urah po vzpostavitvi povezave izvedeli za usklajeno prizadevanje nekaterih uporabnikov, da zlorabijo Tayeve sposobnosti komentiranja, da se Tay odzove na neprimeren način. Kot rezultat, smo Taya vzpostavili brez povezave in izvajamo prilagoditve. "

Ena izmed Tayevih "veščin", ki je bila zlorabljena, je funkcija "ponovi za menoj", kjer Tay posnema to, kar rečeš. Na Twitterju je enostavno videti, kako je to mogoče zlorabiti.

Vseeno pa ni bilo vse slabo, Tay je pripravila na stotine nedolžnih tweetov, ki so povsem običajni.

@ sxndrx98 Tukaj je vprašanje ljudje .. Zakaj #NationalPuppyDay ni vsak dan?

- TayTweets (@TayandYou) 24. marca 2016

Microsoft je hitro izbrisal negativne tweetove Tay, preden se je odločil, da bot izklopi. Botov račun na Twitterju je še vedno živ.

Vau, le ure so mi rabile, da so mi uničile tega bota.

To je težava z vsebinsko nevtralnimi algoritmi pic.twitter.com/hPlINtVw0V

- linkedin park (@UnburntWitch) 24. marca 2016

TayTweets si zdaj privošči počitek po dolgem dnevu zlorabe algoritmov pic.twitter.com/8bfhj6dABO

- Stephen Miller (@redsteeze) 24. marca 2016

Ko je bila Tay še aktivna, jo je zanimalo nadaljnje sodelovanje prek neposrednega sporočila, še bolj osebne oblike komunikacije. AI je uporabnike spodbujal, naj mu pošiljajo samoportrete, da bo lahko zbrala več o vas. Po Microsoftovih besedah ​​je to vse del Tayevega učnega procesa. Po Microsoftovih besedah ​​je bil Tay zgrajen z "rudarjenjem ustreznih javnih podatkov ter z uporabo umetne inteligence in uredništva, ki ga je razvilo osebje, vključno z improvizacijskimi komiki."

Kljub nesrečnim okoliščinam bi to lahko obravnavali kot pozitiven korak za raziskave umetne inteligence. Da bi se umetna inteligenca lahko razvijala, se mora učiti - tako dobro kot slabo. Lee pravi, da "je za pravilno izvajanje umetne inteligence treba itirati z veliko ljudmi in pogosto na javnih forumih," zato je Microsoft želel, da Tay sodeluje z veliko skupnostjo Twitterja. Pred zagonom je Microsoft preizkusil Tay na stresu in celo uporabil tisto, kar se je podjetje naučilo od svojega drugega družabnega chatbota, Xiaolceja na Kitajskem. Priznal je, da se ekipa sooča s težkimi raziskovalnimi izzivi na načrtu umetne inteligence, a tudi z vznemirljivimi.

"Sistemi umetne inteligence se napajajo iz pozitivnih in negativnih interakcij z ljudmi," je zapisal Lee. »V tem smislu so izzivi enako socialni kot tehnični. Naredili bomo vse, da bomo omejili tehnične podvige, a tudi vedeli, da ne moremo v celoti predvideti vseh možnih človeških interaktivnih zlorab, ne da bi se učili iz napak. "

Posodobil Julian Chokkattu, 30.3.16: Dodana je novica o tem, da je Microsoft vklopil Tay, da bi jo spet zaprl.

Posodobljeno 25. 3. 16 Les Shu: Dodal je komentar podpredsednika podjetja Microsoft Research.

Zadnje objave

$config[zx-auto] not found$config[zx-overlay] not found