Autor:
Rawpixel.com

Eetikaküsimusi tuleb vaagida juba enne tehisintellekti loomise alustamist

Oktoobris viisid TÜ eetikakeskuse juhataja prof Margit Sutrop ja eetika teadur Mari-Liisa Parder läbi töötoa, kus avasid tehisintellekti ja eetika seoseid ning selgitasid, miks on usaldus siinkohal väga oluline.

Teadusprojekti RAYUELA partneritele koostatud töötuba alustas prof Sutrop ülevaatega, mis üldse on tehisintellekt (TI) ning kuidas saab seda liigitada. „Teemaks on, kas meie kontrollime tehisintellekti või kontrollib see hoopis meid,“ naljatles ta sissejuhatuses. Prof Sutrop tõi välja, et oma teadustöös kasutab ta kõige sagedamini Euroopa Komisjoni sõltumatu kõrgetasemelise eksperdirühma määratlust, mis ütleb, et TI „iseloomustab intelligentselt käituvaid süsteeme, mis analüüsivad oma keskkonda ja sooritavad teataval määral iseseisvaid toiminguid, et saavutada konkreetseid eesmärke. Tehisintellektil põhinevad süsteemid võivad olla ainult tarkvarapõhised ja tegutseda virtuaalmaailmas või olla paigaldatud riistvarasse.“[1]

TI puhul liigitatakse neid ka oskuste põhjal eri gruppidesse – kindla ülesande lahendamisest kuni superintelligentsini välja. Prof Sutrop tõi välja ka põhilised riskid, näiteks TI kuritarvitamine inimeste poolt, tahtmatud tagajärjed või TI enda autonoomsed teod. On võimalik, et TI ohustab meie autonoomiat ja sotsiaalseid suhteid, mõjutab nägemust sellest, mida üldse tähendab inimeseks olemine ning kerkib esile ka väärtuste hierarhia küsimus (nn value alignment problem).

Erinevad vajadused

„Tehisintellekti loojad küsivad, milliseid väärtuseid peaks austama? Millised väärtused tuleks neile järgimiseks anda?“, rääkis prof Sutrop. Ta tõi selle küsimuse illustreerimiseks kuuldud naljaka näite ühe ülesandega TIst. „Oletame, et sul on kodus söögitegemise robot. Kui tema ainus ülesanne on teha süüa, aga köögis pole ainsatki toiduainet saadaval, siis ta teebki sulle õhtusöögiks kassisuppi. Me peame kuidagi talle selgeks tegema, et meie ainus eesmärk pole söömine, vaid meil on ka eelistused, mida peab järgima.“

Inimeste eelistused ja väärtused on hierarhias, seega tuleb selgeks rääkida, millist TId me tahame – kas need peaks täitma meie esmatasandi soove või hoopis hoidma silmas pikaajalisi eesmärke, kirjeldas prof Sutrop. „Sellele vastamiseks tuleb öelda, mida üldse tähendab hea elu? Milliseid eesmärke me tahame täita?“ küsis ta.

Tehisintellekt ja usaldus

Eetilist tehisintellekti on vaja, kuna see on usalduse nurgakivi. Sealjuures saab eristada usaldust kui sotsiaalset käitumist ning usaldusväärsust kui omadust. Prof Sutrop ütles, et kui me räägime tehisintellektist, siis võib küsida, kas me usaldame TId kui süsteemi või me usaldame nende taga olevaid inimesi ja institutsioone.

„Minu enda uurimistöö näitab, et kui me räägime tehisintellekti usaldamisest, siis tegelikult mõeldakse selle all nende inimeste, kes tehisintellekti loovad, kasutavad ja valitsevad, usaldamist. Seega pole usaldus seotud niivõrd loodud süsteemide kui inimeste ja institutsioonidega,“ selgitas ta.

Euroopa Komisjoni eksperdirühm on loetlenud, et usaldusväärne TI on seadusekuulekas, eetiline ja vastupidav (nii tehnilises kui ka sotsiaalses mõttes).[1]

Küll aga esineb ka nendes juhistes prof Sutropi sõnul vasturääkivusi: „Seda on küll kahju öelda, aga praeguseni pole lõpuni selge, milliseid eetilisi käitumisviise ja väärtusi kõik inimesed peaks tingimusteta austama.“ Sellest tulenevalt leiab Euroopa Komisjoni juhistest väärtusi, mis on nimetatud otsekui absoluutsed, samas rõhutatakse, et tuleb austada indiviidide väärtuste ja valikute pluralismi. „Väärtusvalikute tegemine ja moraaliotsuste kaalumine on filosoofidele lihtne, aga tehisintellektide loojad küsivad sageli, kuidas seda täpselt teha,“ naljatles ta.

Eetika kui tehisintellekti loomise osa

Prof Sutrop tõi välja, et talle meeldib idee „ethics by design[2]  ehk enne tehisintellekti loomist juba mõeldakse ette, millised on eetilised nõuded, kus on võimalikud ohukohad, mida me püüame vältida jne. Ta avaldas heameelt, et praegune suundumus on, et eetikud ja insenerid istuvad koheselt n-ö sama laua taha kokku.

Teadusprojekti RAYUELA raames luuakse tõsise sisuga hariduslik mäng ning ka tehisintellekt, mis imiteerib teismeliste käitumist mängus. Eetikakeskuse eetika teadur Mari-Liisa Parder tutvustas projekti konsortsiumile praktilisi tööriistu, mida saab TI loomisel rakendada. Üks ülevaatlikumaid on tema hinnangul ALTAI kontrollnimekiri[3], mis on küsimustepõhine: „Näiteks tuleb vastata küsimusele, kas tehisintellekti süsteem on loodud inimestega interaktsiooniks, nende suunamiseks või otsuste vastuvõtmiseks, mis mõjutavad inimesi või ühiskonda?“ Ta lisab, et kuigi võib tunduda, et sellistele küsimustele tuleb leida vastused alles arenduste lõpus, peab neid küsimusi silmas pidama kogu arendusprotsessi jooksul.

Igal tööriistal on kindlasti oma eelised ja piirangud, samal ajal areneb valdkond väga kiiresti. Parder tõi välja, et ALTAI kõrval on teisigi eetikajuhiseid, mida silmas pidada, näiteks ECCOLA[4]  ja IEEE[5] autonoomsete ja intelligentsete süsteemide eetikajuhiseid.

RAYUELA viies konsortsiumi kohtumine toimus 5.–6. oktoobril 2022 Tartus.

Projekti täispealkiri on „Noorte harimine ja jõustamine läbi mängimise internetis ohutult toimetamiseks“. „RAYUELA“ projekti toetab Euroopa Liidu teadusuuringute ja innovatsiooni raamprogramm „Horisont 2020“ grandilepingu nr 882828 alusel. Lisaks Tartu Ülikoolile on Eestist projekti kaasatud ka Politsei- ja Piirivalveamet. Projektis osalevad veel Belgia, Hispaania, Kreeka, Läti, Portugali, Saksamaa, Slovakkia ja Ühendkuningriigi eksperdid, kokku 17 partnerorganisatsiooni.

Projekti kohta saab lähemalt lugeda aadressil https://www.rayuela-h2020.eu/
Pildil on kamp inimesi käest kinni hoidmas ja ringis liikumas

Kogukondade väärtusvahetuspäev tõi uut energiat

Pildil on neli inimest laua taga istumas ja vestlemas

Peipsiääre valla dialoogiõhtud ehitavad kogukondade vahel sildu

Pildil on inimesed seismas

Üksildust leevendab kuuluvustunne