Pastāstiet savam kaķēnam, ko domājat iekšpusē – melnās kastes efektu
Tehnoloģija

Pastāstiet savam kaķēnam, ko domājat iekšpusē – melnās kastes efektu

Fakts, ka uzlabotie AI algoritmi ir kā melnā kaste (1), kas izmet rezultātu, neatklājot, kā tas radās, dažus satrauc un citus apbēdina.

2015. gadā pētnieku grupai Sinaja kalna slimnīcā Ņujorkā tika lūgts izmantot šo metodi, lai analizētu plašu vietējo pacientu datubāzi (2). Šajā plašajā kolekcijā ir daudz informācijas par pacientiem, testu rezultātiem, receptēm un daudz ko citu.

Zinātnieki nosauca darba gaitā izstrādāto analītisko programmu. Tā apmācīja datus no aptuveni 700 XNUMX cilvēku. cilvēku, un, pārbaudot jaunos reģistros, tas ir izrādījies ārkārtīgi efektīvs slimību prognozēšanā. Bez cilvēku ekspertu palīdzības viņš atklāja modeļus slimnīcu ierakstos, kas norāda, kurš pacients ir ceļā uz slimību, piemēram, aknu vēzi. Pēc ekspertu domām, sistēmas prognostiskā un diagnostiskā efektivitāte bija daudz augstāka nekā citām zināmajām metodēm.

2. Medicīniskā mākslīgā intelekta sistēma, kuras pamatā ir pacientu datu bāzes

Tajā pašā laikā pētnieki pamanīja, ka tas darbojas mistiskā veidā. Piemēram, izrādījās, ka tas ir ideāli piemērots garīgo traucējumu atpazīšanapiemēram, šizofrēnija, kas ārstiem ir ārkārtīgi sarežģīta. Tas bija pārsteidzoši, jo īpaši tāpēc, ka nevienam nebija ne jausmas, kā AI sistēma var tik labi redzēt garīgās slimības, pamatojoties tikai uz pacienta medicīniskajiem dokumentiem. Jā, speciālisti bija ļoti apmierināti ar tik efektīvas mašīnas diagnostikas palīdzību, taču viņi būtu daudz apmierinātāki, ja saprastu, kā AI nonāk pie saviem secinājumiem.

Mākslīgo neironu slāņi

No paša sākuma, tas ir, no brīža, kad kļuva zināms mākslīgā intelekta jēdziens, bija divi viedokļi par AI. Pirmais ierosināja, ka vissaprātīgāk būtu būvēt mašīnas, kas domā saskaņā ar zināmiem principiem un cilvēka loģiku, padarot to iekšējo darbību pārredzamu ikvienam. Citi uzskatīja, ka intelekts radīsies vieglāk, ja mašīnas mācīsies novērojot un atkārtoti eksperimentējot.

Pēdējais nozīmē tipiskās datorprogrammēšanas apvērsumu. Tā vietā, lai programmētājs rakstītu komandas, lai atrisinātu problēmu, programma ģenerē savs algoritms pamatojoties uz parauga datiem un vēlamo rezultātu. Mašīnmācīšanās metodes, kas vēlāk attīstījās par visspēcīgākajām mūsdienās zināmajām AI sistēmām, ir tikko gājušas tādu ceļu, kā pati mašīna programmē.

Šī pieeja 60. un 70. gados palika AI sistēmu izpētes malā. Tikai iepriekšējās desmitgades sākumā, pēc dažām novatoriskām izmaiņām un uzlabojumiem, "Dziļie" neironu tīkli sāka demonstrēt radikālu automatizētās uztveres spēju uzlabošanos. 

Dziļā mašīnmācība ir apveltījusi datorus ar neparastām spējām, piemēram, spēju atpazīt izrunātos vārdus gandrīz tikpat precīzi kā cilvēks. Šī ir pārāk sarežģīta prasme, lai to ieprogrammētu pirms laika. Mašīnai jāspēj izveidot savu "programmu", ko apmācība par milzīgām datu kopām.

Padziļināta mācīšanās ir mainījusi arī datora attēlu atpazīšanu un ievērojami uzlabojusi mašīntulkošanas kvalitāti. Mūsdienās to izmanto, lai pieņemtu visu veidu galvenos lēmumus medicīnā, finansēs, ražošanā un citur.

Tomēr ar visu šo jūs nevarat vienkārši ieskatīties dziļā neironu tīklā, lai redzētu, kā darbojas "iekšā". Tīkla spriešanas procesi ir iestrādāti tūkstošiem simulētu neironu uzvedībā, kas sakārtoti desmitiem vai pat simtiem sarežģīti savstarpēji saistītu slāņu..

Katrs no pirmā slāņa neironiem saņem ievadi, piemēram, attēla pikseļa intensitāti, un pēc tam veic aprēķinus pirms izvades izvadīšanas. Tie tiek pārraidīti sarežģītā tīklā uz nākamā slāņa neironiem – un tā tālāk, līdz galīgajam izejas signālam. Turklāt ir process, kas pazīstams kā atsevišķu neironu veikto aprēķinu pielāgošana, lai apmācības tīkls radītu vēlamo rezultātu.

Bieži citētajā piemērā, kas saistīts ar suņu attēlu atpazīšanu, zemāki AI līmeņi analizē vienkāršas īpašības, piemēram, formu vai krāsu. Augstākie nodarbojas ar sarežģītākiem jautājumiem, piemēram, kažokādu vai acīm. Tikai augšējais slānis to visu apvieno, identificējot visu informācijas kopumu kā suni.

To pašu pieeju var izmantot citiem ievades veidiem, kas ļauj iekārtai mācīties pašai: skaņām, kas veido vārdus runā, burtiem un vārdiem, kas veido teikumus rakstītā tekstā, vai, piemēram, stūrei. transportlīdzekļa vadīšanai nepieciešamās kustības.

Mašīna neko neizlaiž.

Tiek mēģināts izskaidrot, kas tieši notiek šādās sistēmās. 2015. gadā Google pētnieki pārveidoja dziļās mācīšanās attēlu atpazīšanas algoritmu, lai tā vietā, lai redzētu objektus fotogrāfijās, tas tos ģenerēja vai modificēja. Palaižot algoritmu atpakaļ, viņi vēlējās atklāt īpašības, kuras programma izmanto, lai atpazītu, piemēram, putnu vai ēku.

Šie eksperimenti, kas publiski zināmi kā nosaukums, radīja pārsteidzošus (3) grotesku, dīvainu dzīvnieku, ainavu un varoņu attēlojumu. Atklājot dažus mašīnu uztveres noslēpumus, piemēram, to, ka noteikti modeļi tiek atkārtoti atgriezti un atkārtoti, tie arī parādīja, kā dziļa mašīnmācīšanās atšķiras no cilvēka uztveres, piemēram, tādā nozīmē, ka tā paplašina un dublē artefaktus, kurus mēs ignorējam. mūsu uztveres procesā bez domāšanas . .

3. Projektā izveidots attēls

Starp citu, no otras puses, šie eksperimenti ir atklājuši mūsu pašu kognitīvo mehānismu noslēpumu. Iespējams, mūsu uztverē ir dažādi nesaprotami komponenti, kas liek mums uzreiz kaut ko saprast un ignorēt, kamēr mašīna pacietīgi atkārto savas iterācijas uz “nesvarīgiem” objektiem.

Mēģinot "saprast" mašīnu, tika veikti citi testi un pētījumi. Džeisons Josinskis viņš radīja rīku, kas darbojas kā smadzenēs iestrēgusi zonde, mērķējot uz jebkuru mākslīgo neironu un meklējot attēlu, kas to aktivizē visspēcīgāk. Pēdējā eksperimentā tīkla "palūrēšanas" rezultātā parādījās abstrakti attēli, kas sistēmā notiekošos procesus padarīja vēl noslēpumainākus.

Tomēr daudziem zinātniekiem šāds pētījums ir pārpratums, jo, pēc viņu domām, lai izprastu sistēmu, atpazītu augstākas pakāpes sarežģītu lēmumu pieņemšanas modeļus un mehānismus, visas skaitļošanas mijiedarbības dziļā neironu tīklā. Tas ir milzīgs matemātisko funkciju un mainīgo lielumu labirints. Šobrīd mums tas ir nesaprotami.

Dators neieslēdzas? Kāpēc?

Kāpēc ir svarīgi izprast progresīvu mākslīgā intelekta sistēmu lēmumu pieņemšanas mehānismus? Jau tagad tiek izmantoti matemātiskie modeļi, lai noteiktu, kuri ieslodzītie var tikt atbrīvoti nosacīti, kuriem var piešķirt aizdevumu un kuri var iegūt darbu. Interesenti vēlas uzzināt, kāpēc pieņemts šāds, nevis cits lēmums, kāds ir tā pamatojums un mehānisms.

viņš atzina 2017. gada aprīlī MIT tehnoloģiju pārskatā. Tomijs Jākola, MIT profesors, kas strādā pie mašīnmācības lietojumprogrammām. -.

Pastāv pat juridiska un politiska nostāja, ka spēja rūpīgi pārbaudīt un izprast AI sistēmu lēmumu pieņemšanas mehānismu ir cilvēka pamattiesības.

Kopš 2018. gada ES strādā pie tā, lai uzņēmumiem būtu jāsniedz paskaidrojumi saviem klientiem par automatizēto sistēmu pieņemtajiem lēmumiem. Izrādās, ka tas dažkārt nav iespējams pat ar sistēmām, kas šķiet samērā vienkāršas, piemēram, lietotnēs un vietnēs, kas izmanto dziļu zinātni, lai rādītu reklāmas vai ieteiktu dziesmas.

Datori, kuros darbojas šie pakalpojumi, paši programmējas, un viņi to dara mums nesaprotamā veidā... Pat inženieri, kas veido šīs lietojumprogrammas, nevar pilnībā izskaidrot, kā tas darbojas.

Pievieno komentāru