J:
Kāpēc mašīnu apguvē ir problēmas ar neobjektivitāti?
A:Uz šo jautājumu var atbildēt divējādi. Pirmkārt, kāpēc ir mašīnu neobjektivitātes problēma, kā tas ir, kāpēc tā pastāv mašīnmācīšanās procesos?
Mašīnmācība, lai arī sarežģīta un sarežģīta, tomēr ir ierobežota, balstoties uz datu kopām, kuras tā izmanto. Datu kopu konstruēšana ir saistīta ar raksturīgu novirzi. Tāpat kā plašsaziņas līdzekļos, kur izlaidumi un apzināta iekļaušanas izvēle var liecināt par īpašu novirzi, mašīnmācībā jāizmanto izmantotās datu kopas, lai noteiktu, kāda veida neobjektivitāte pastāv.
Bezmaksas lejupielāde: mašīnmācīšanās un kāpēc tas ir svarīgi |
Piemēram, tehnoloģiju testēšanas un projektēšanas procesos bieži sastopama problēma ir parādīt, ka viena veida lietotāji dod priekšroku pār citiem. Viens liels piemērs ir dzimumu atšķirības tehnoloģiju pasaulē.
Kāpēc tas ietekmē situāciju, un kāpēc tas attiecas uz mašīnmācību?
Tā kā esošo sieviešu trūkums testēšanas vidē var radīt ražotu tehnoloģiju, kas ir mazāk draudzīga sievietēm. Daži eksperti to raksturo tā, ka bez esošām sieviešu pārbaudēm galaprodukts, iespējams, neatzīst sieviešu izmantotāju ieguldījumu - tam, iespējams, nav rīku sieviešu identitātes atpazīšanai vai adekvātai rīcībai ar sieviešu ieguldījumu.
Tas pats attiecas uz dažādām etniskajām grupām, dažādu reliģiju cilvēkiem vai jebkura cita veida demogrāfisko situāciju. Bez pareizajiem datiem mašīnmācīšanās algoritmi nedarbosies pareizi noteiktai lietotāju kopai, tāpēc iekļaušanas dati ir apzināti jāpievieno tehnoloģijai. Tā vietā, lai ņemtu tikai primāro datu kopas un pastiprinātu raksturīgo neobjektivitāti, apstrādātājiem cilvēkiem patiešām ir jāapskata šī problēma.
Vēl viens piemērs ir mašīnmācīšanās dzinējs, kas ņem informāciju par darbu un algu un izkliedē rezultātus. Ja šī raksturīgā datu kopa netiek analizēta, iekārta pastiprinās neobjektivitāti. Ja tiek uzskatīts, ka vīrieši ieņem lielāko daļu izpildvaras amatu, un mašīnmācīšanās process ietver filtrēšanu, izmantojot neapstrādātus datus, un atbilstošu rezultātu atdošanu, tas atgriezīs rezultātus, kas liecina par vīriešu aizspriedumiem.
Jautājuma otrajā daļā ir iekļauts iemesls, kāpēc šī aizspriedumi ir tik kaitīgi. Bez atbilstošas uzraudzības un testēšanas jaunās tehnoloģijas var kaitēt, nevis palīdzēt mūsu iekļaušanas un vienlīdzības sajūtai. Ja tiek izlaists jauns tehnoloģiju produkts, kas atpazīst sejas ar gaišāku ādu, bet ne tumšākas, tas var izraisīt pastiprinātu etnisko spriedzi un apziņu, ka attiecīgais uzņēmums nav jutīgs pret dažādību. Ja mašīnmācīšanās algoritms reproducē un palielina datu kopu neobjektivitāti, mākslīgais intelekts savu balsi papildinās ar cilvēku balsīm un cilvēka tieksmēm, kas jau pastāv sociālajā sistēmā un dod priekšroku vienai cilvēku grupai pār otru.
Labākais veids, kā to risināt, ir cieši aplūkot pamatā esošās datu kopas, izmantot funkciju izvēli, pievienot mainīgo ievadi un pašiem manipulēt ar neapstrādātiem datu kopumiem, kā arī palielināt mašīnmācīšanās reālo jaudu ar apzinātu cilvēku datu izstrādi, lai iegūtu rezultāts, kas nodrošina lielu analītisko jaudu, kā arī dažas no šīm cilvēka atziņām, kuras datori vēl nevar replicēt.
