Mājas Audio Kāpēc darpa pēta izskaidrojamu ai?

Kāpēc darpa pēta izskaidrojamu ai?

Anonim

J:

Kāpēc DARPA pēta "izskaidrojamu AI"?

A:

Kopumā skaidrojams mākslīgais intelekts kļūst par modernu darbu datu zinātnēs. Tas palīdz vadīt cilvēku kontroli pār raksturīgo nepastāvīgo un dinamisko tehnoloģiju veidu - izskaidrojamā AI palīdz atbildēt uz daudziem mūsu kolektīvajiem jautājumiem par to, kā darbosies mākslīgais intelekts.

Lai saprastu izskaidrojamo AI, tas palīdz saprast, kā izskatās "parastais AI". Tradicionāli, sākoties AI veidošanai, tipiskais projekts sastāv no iedomātas jaunas programmatūras iespējām, kas ir paslēptas algoritmos un apmācību kopās, kā arī lineārā kodā, kas lietotājiem ir “bloķēšanas kaste”. Viņi zina, ka tas darbojas - viņi vienkārši precīzi nezina, kā.

Tas var izraisīt "uzticēšanās problēmas", kurās lietotāji var apšaubīt, uz kāda pamata tehnoloģija pieņem lēmumus. Tas ir tas, kam vajadzētu pievērsties izskaidrojamai AI: Izskaidrojamiem AI projektiem ir pievienota papildu infrastruktūra, lai gala lietotājiem parādītu AI nodomu un struktūru - kāpēc tā dara to, ko dara.

Laikmetā, kurā jaunākie novatori, piemēram, Bils Geitss un Elons Musks, pauž bažas par to, kā darbosies mākslīgais intelekts, izskaidrojamā AI šķiet ārkārtīgi pievilcīga. Eksperti uzskata, ka laba izskaidrojama AI varētu palīdzēt galalietotājiem saprast, kāpēc tehnoloģijas dara to, ko viņi dara, vairot uzticēšanos un arī atvieglot šo tehnoloģiju lietošanu.

Konkrēti, DARPA pats par sevi paskaidro, kāpēc tā ir ieinteresēta jaunajos projektos. Lapa DARPA parāda, ka Aizsardzības departaments paredz mākslīgā intelekta lietojumu “straumīti” un zināmu haosu tā attīstībā.

“Turpinot progresu, tiek solīts radīt autonomas sistēmas, kas uztvers, iemācīsies, izlems un darbosies pašas, ” raksta Deivids Gunders. “Tomēr šo sistēmu efektivitāti ierobežo mašīnas pašreizējā nespēja izskaidrot lietotājiem lēmumus un darbības. … Izskaidrojams AI - īpaši izskaidrojama mašīnu apguve - būs būtisks, lai nākamie karavīri saprastu, pienācīgi uzticētos un efektīvi pārvaldītu topošo paaudzi mākslīgi inteliģentu mašīnu partnerus. ”

Gunninga tiešsaistes eseja liek domāt, ka izskaidrojamas AI sistēmas palīdzēs “sniegt pamatojumu” tehnoloģijām, parādīt to stiprās un vājās puses un padarīt lietojuma gadījumus pārredzamākus. Lapas grafikā parādīts, kā tiešu mākslīgā intelekta funkcionalitāti no apmācības datiem papildina kaut kas ar nosaukumu izskaidrojams modelis un izskaidrojama saskarne, kas lietotājam palīdzēs atbildēt uz jautājumiem. Tālāk pārdomājot, var secināt, ka izskaidrojamajai AI programmai būs divas galvenās jomas - viena būtu izsijāt caur multimediju datiem, lai atrastu lietotājiem noderīgo, un otrais uzsvars būtu lēmumu pieņemšanas procesu simulēšana lēmumu atbalstam.

DARPA cer nodrošināt “instrumentu komplektu”, kas var palīdzēt attīstīt nākotnē izskaidrojamas AI sistēmas.

Kāpēc darpa pēta izskaidrojamu ai?