Liigu peamise sisu juurde

Eetilised dilemmad tehisintellektis

Õpieesmärgid

Pärast selle peatüki läbimist oskad:

  • Selgitada, mis on eetika ja miks see on oluline tehisintellekti (TI) arendamisel ja kasutamisel.
  • Tuvastada peamised eetilised probleemid, mis võivad tekkida TI-süsteemides.
  • Analüüsida eelarvamuste ja diskrimineerimise mõju TI-lahendustes.
  • Selgitada läbipaistvuse olulisust ja arutleda, kas kasutaja peaks alati teadma, et suhtleb TI-ga.
  • Mõista inimõiguste järgimise tähtsust TI kontekstis.
  • Arutada vastutuse küsimust olukordades, kus TI teeb vea, millel on tõsised tagajärjed.

Mis on eetika ja kuidas see kohandub TI-maailma?

Eetika tegeleb õige ja vale käitumise põhimõtetega, vastates küsimustele: Mis on õige teha? Millised otsused on õigustatud? Kuidas peaksime käituma teiste suhtes? Tehnoloogia ja eriti tehisintellekti puhul muutuvad need küsimused keerulisemaks, sest sageli:

  1. Otsuseid teeb masin, mitte inimene. Kes vastutab, kui masin teeb vea?
  2. Tehnoloogia võib mõjutada miljoneid inimesi korraga. Üks algoritmiline otsus võib mõjutada tööle saamist, meditsiinilist ravi või kohtuprotsessi.
  3. Tihti pole otsustusprotsess läbipaistev. Paljud masinõppe mudelid on "musta kasti" tüüpi – isegi arendajad ei pruugi täpselt aru saada, miks konkreetne tulemus tekkis.

Näide:

2018. aastal põhjustas Uberi isesõitev auto Arizonas surmaga lõppenud õnnetuse. Uurimine näitas, et tarkvara ei suutnud jalakäijat õigel ajal tuvastada. Juhtum tõstatas terava küsimuse: kes vastutab – auto omanik, arendajad või teenusepakkuja?

Eetika TI-maailmas tähendab seega arutlemist, kuidas tagada, et tehnoloogia teeniks inimeste huve ja väärtusi, mitte ei kahjustaks neid. See eeldab nii tehnilisi lahendusi (turvaline disain, andmete kvaliteet) kui ka eetilist raamistikku (läbipaistvus, vastutus ja inimõiguste austamine).

Kui mõistame, miks eetika on üldiselt oluline, liigume edasi ühe peamise probleemi juurde – eelarvamused ja diskrimineerimine.

Eelarvamused ja diskrimineerimine

Tehisintellekti mudelid ei ole "neutraalsed" – nad õpivad andmetest, mida inimesed loovad. Kui andmetes on vigu, eelarvamusi või ajaloost tulenevat diskrimineerimist, kandub see üle ka mudelisse.

Näited:

  • Värbamisalgoritm: 2018. aastal loobus Amazon värbamistarkvarast, sest see alandas naissoost kandidaatide skoori tehnilistel ametikohtadel. Põhjuseks olid treeningandmed, mis peegeldasid ajaloolist soolist ebavõrdsust IT-sektoris.
  • Näotuvastustehnoloogia: ACLU (American Civil Liberties Union) testis näotuvastussüsteemi ja leidis, et see tuvastas 28 Kongressi liiget ekslikult kurjategijatena, enamasti tumedanahalisi inimesi. Selline eelarvamus võib viia vale süüdistuse või diskrimineeriva kohtlemiseni.
  • Laenuandmise algoritmid: USA-s avastati juhtum, kus algoritmid andsid madalamaid krediidihinnanguid teatud piirkondade elanikele, kuigi individuaalne maksevõime oli hea. Piirkondade majanduslikud näitajad sisaldasid varasemaid diskrimineerivaid mustreid, mis kandusid otsustesse üle.

Need juhtumid näitavad, et algoritmilised eelarvamused ei ole teoreetiline probleem, vaid reaalsus, millel on tõsised tagajärjed.

Eetiliselt arendatud TI peaks:

  1. Analüüsima andmeid enne mudeli treenimist – kas need on esinduslikud ja tasakaalus?
  2. Jälgima süsteemi tulemusi regulaarselt – kas otsused on õiglaselt jaotatud eri gruppide vahel?
  3. Loobuma ainult automaatsetest otsustest – lõplik vastutus ja kontroll peaks jääma inimesele.
pea meeles

Eetiline TI peab arvestama andmete mitmekesisust ja õiglust. Ilma selleta võib tehnoloogia tugevdada ebaõiglust, mitte seda vähendada.

Eelarvamuste kõrval kerkib teine oluline küsimus: kas kasutajad saavad üldse aru, kuidas ja kelle poolt otsuseid tehakse? Siin tulebki mängu läbipaistvus.

Läbipaistvuse vajadus

Kas kliendil on õigus teada, et ta suhtleb TI-ga? Enamik eksperte usub, et vastus on jah, sest läbipaistvus on üks olulisemaid eetilisi põhimõtteid, mis loob aluse usaldusväärsele suhtlusele tehnoloogiaga.

Kui kasutaja ei tea, et ta räägib masinaga, võivad tekkida mitmed probleemid: inimesed võivad tajuda end petetuna, neid võidakse manipuleerida või nad võivad teha otsuseid, mida nad muidu ei teeks. Näiteks võib turundusrobot esitleda end päris inimesena ja mõjutada kasutajat ostu sooritama, jättes mulje siirast soovitusest, kuigi tegelikult on tegemist automatiseeritud müügistrateegiaga.

Läbipaistvus tähendab ka seda, et kasutajale antakse arusaadav info selle kohta, kuidas ja miks otsused sünnivad. See on eriti oluline, kui otsused mõjutavad inimese elu sügavamalt – näiteks:

  • 2019. aastal kasutas USA tervishoiusüsteem algoritmi, mis andis mustanahalistele patsientidele madalam prioriteedi hoolimata samast meditsiinilisest vajadusest. Pärast läbipaistvusuuringut ja avalikkuse survestamist muudeti algoritmi.

Näide:

Kui klienditeenindusrobot vastab päringutele, peaks kasutajale olema selgelt märgitud, et tegemist on automatiseeritud süsteemiga. Lisaks võiks kasutajal olla alati võimalus vestlus edastada inimesele, eriti olukordades, mis on emotsionaalselt tundlikud või nõuavad keerukamat otsustamist.

Läbipaistvus viib meid edasi veel fundamentaalsema teemani – kas TI austab inimeste põhiõigusi?

Inimõiguste järgimine

TI-süsteemid võivad tahtmatult rikkuda põhiõigusi, kuid mõnikord võib see juhtuda ka tahtlikult, kui tehnoloogiat kasutatakse kuritarvitamise eesmärgil.

Näited:

  • Privaatsus: Hiina rakendas Xinjiangi provintsis jälgimissüsteeme, mis kogusid andmeid moslemite vähemuse kohta, sealhulgas biomeetrilisi andmeid, et tuvastada ja jälgida nende liikumist. See on otsene rünnak eraelu puutumatusele.
  • Võrdne kohtlemine: Politsei prognoosialgoritmid, nagu PredPol, suunasid rohkem järelevalvet juba niigi haavatavatesse piirkondadesse, mis suurendas sealsete elanike diskrimineerimist.
  • Väljendusvabadus: Sotsiaalmeedia algoritmid võivad eemaldada poliitiliselt tundlikku, kuid seaduslikku sisu, piirates inimeste õigust oma arvamust avaldada.

Eetiliselt loodud TI peab austama inimõigusi igas arendusetapis: alates andmete kogumisest kuni süsteemi kasutamiseni. See tähendab, et peab olema selge, milliseid andmeid kogutakse ja miks, otsuste tegemine peab olema õiglane ja kontrollitav ning kasutajatel peab olema võimalus vaidlustada süsteemi tehtud otsuseid. Kui TI-süsteem ei suuda tagada inimõiguste kaitset, ei tohiks seda üldse rakendada.

oluline mõte

Eetiline TI ei kahjusta inimesi ega ühiskonda – see tugevdab vabadusi ja kaitseb õigusi.

Kui inimõigusi ja läbipaistvust on võimalik rikkuda tahtmatult või tahtlikult, tekib viimane ja võib-olla kõige keerulisem küsimus – kelle vastutada on TI eksimused?

Vastutuse küsimus

Üks keerulisemaid ja enim vaieldud teemasid tehisintellekti eetikas on vastutuse määramine. Kui inimeste loodud ja juhitud süsteem teeb vea, on suhteliselt selge, kes vastutab. Kuid kui otsus või tegevus tuleneb autonoomsest süsteemist, mis tegutseb ilma otsese inimliku juhiseta, muutub küsimus oluliselt keerulisemaks.

Kes vastutab, kui midagi juhtub?

  • Isesõitev auto: 2018. aastal juhtus Uberi isesõitva autoga surmaga lõppenud õnnetus. Uurijad leidsid, et tarkvara ei suutnud õigesti tuvastada jalakäijat, ja testjuht ei sekkunud õigel ajal. Kas süüdi oli tarkvara looja, Uber, testjuht või seadusandlus, mis lubas testimist avalikel teedel?
  • Meditsiiniline algoritm: Kui algoritm annab vale diagnoosi ja patsient saab vale ravi, kas vastutab arendaja, haigla, arst või riik, kes selle kasutuse lubas?

Võimalikud vastutajad:

  • Arendaja – vastutab juhul, kui viga tuleneb puudulikust disainist, kallutatud andmetest või testimise ebapiisavusest.
  • Kasutaja – vastutab, kui ta kasutas süsteemi viisil, mis ei olnud ette nähtud või eiras selgeid juhiseid.
  • Tootja/teenusepakkuja – vastutab, kui ta ei testinud süsteemi piisavalt, ei pakkunud uuendusi ega hoiatanud piirangute eest.
  • Seadusandja ja regulaatorid – vastutavad, kui jätsid looma selged reeglid ja järelvalve, mis oleks võinud õnnetust ennetada.

See tekitab küsimuse: kas me peaksime looma eraldi "TI-vastutuse" süsteemi? Mõned riigid kaaluvad:

  • kohustuslik kindlustus isesõitvatele autodele – nagu liikluskindlustus, mis katab kahjud sõltumata süüst;
  • õiguslik isikustaatus tehisintellektile – idee, et autonoomne süsteem võiks olla juriidiliselt vastutav nagu ettevõte(väga vaieldav);
  • auditid ja sertifikaadid – enne TI kasutuselevõttu sõltumatu eetiline ja tehniline kontroll.

Ilma selgete vastutusahelateta võib ühiskond kaotada usalduse tehnoloogia vastu ja jätta inimesed kaitseta.

Kokkuvõte

Tehisintellekt toob kaasa tohutuid võimalusi, kuid ka uusi eetilisi küsimusi:

  • Eetika TI-s tähendab tehnoloogia loomist ja kasutamist, mis teenib inimeste huve ja austab nende väärtusi.
  • Eelarvamused ja diskrimineerimine võivad viia ebaõiglaste otsusteni, kui neid ei tuvastata ja ei vähendata.
  • Läbipaistvus loob usaldust ja annab inimestele võimaluse teadlikke otsuseid teha.
  • Inimõigused peavad jääma igas TI-rakenduses esikohale.
  • Vastutus peab alati jääma inimestele ja organisatsioonidele, mitte masinatele.
pea meeles

Eetiline TI ei tähenda ainult tehnilist täpsust – see tähendab austust inimväärikuse, õiguste ja vastutuse vastu.