Hea lugeja, näeme et kasutate vanemat brauseri versiooni või vähelevinud brauserit.
Parema ja terviklikuma kasutajakogemuse tagamiseks soovitame alla laadida uusim versioon mõnest meie toetatud brauserist:
Novum. Moraalsed robotid
Moraalsed robotid
Kas meie planeedi esimesed vastutusvõimelised olendid?
Roboteid kasutatakse üha enam sõjanduses, tööstuses, meditsiinis ja teistes eluvaldkondades. Tõenäoliselt kasvab tulevikus meie ühiskonna sõltuvus õppimisvõimelistest ja autonoomsetest robotitest veelgi. Selle tagajärjel võib tekkida vastutuslünk, sest suureneb selliste tegude hulk, mille eest on keeruline omistada moraalset vastutust kas robotile või selle loojale. Üks viis vastutuslünga täitmiseks oleks moraalse vastutuse mõiste laiendamine ja moraalse otsustusvõimega robotite loomine.
Sõna "robot" pärineb Karl Čapeki näidendist R.U.R. (1921), milles sellega tähistatakse tehases valmistatud tehislikke inimesi, kes teiste heaks töötavad. Kui tehislikud inimesed näidendis olid lihast ja luust, siis tänapäeval nimetame robotiteks mingisuguseid tegevusi automaatselt sooritavaid masinaid. Robotite ideelisteks eelkäijateks on näiteks juudi mütoloogiast tuntud golem ja vanakreeka mütoloogiast tuntud Talos. Praktilisteks eelkäijateks olid teiste seas Ismail al-Jazari veejõul töötavad automaadid ning Leonardo da Vinci kavandatud robot. 20. sajandi keskel ehitas William Grey Walter ühed esimesed täielikult autonoomsed elektroonilised robotid, mis suutsid iseseisvalt oma laadimisjaamad ruumist üles leida. 1954. aastal leiutas George Devol tööstusroboti, mis paigaldati 1961. aastal New Jersey osariigis tehasesse, kus tema ülesandeks sai valust kuumade metallitükkide väljavõtmine. Nüüdseks panevad tööstuslikud robotid kokku autosid ja elektroonikat, militaardroonid lendavad missioonidel, saaki koristavad viljakoristusrobotid ning meditsiinilisi operatsioone aitab teiste seas läbi viia Da Vinci robotsüsteem.
Traditsioonilise arusaama järgi on moraalne agent keegi, kes suudab alternatiivide vahel vabalt valida, moraalselt arutleda ja moraalireegleid konkreetsetele juhtumitele rakendada. Teiste sõnadega on moraalne agent keegi, kelle tegusid saab moraalselt hinnata ja keda saab nende eest kas premeerida või karistada. Üldiselt me peame moraalseteks agentideks füüsiliselt ja vaimselt terveid täiskasvanud inimesi, kuid mitte lapsi, loomi ega arvuteid.
Roboti vabaduse astme määrab see, mil määral inimene tema tegevust kontrollib:
1. Telerobotitel sisuliselt autonoomia puudub, sest nende iga liigutuse määravad inimesed kaugjuhtimise teel. Asjakohasteks näideteks on kaugjuhitavad droonid ja demineerimisrobotid.
2. Inimese järelvalve all töötavatel robotitel on mõningane autonoomia, sest inimese poolt ette antud tegevuste piires saavad nad ise oma liigutusi kontrollida.
3. Robot on oma ülesande piires autonoomne, kui inimene püstitab ülesande, kuid robot otsustab selle lahendamise viisi üle iseseisvalt.
4. Robot on täielikult autonoomne, kui ta püstitab ilma inimese järelvalveta endale ülesandeid ja neid ka lahendab. Võimalikeks näideteks tulevikutehnoloogia vallast võiksid olla tehisliku üldintellekti poolt juhitavad robotid.
Robotite esimese kolme autonoomsuse astme puhul on traditsioonilise arusaama kohaselt selge, et roboti tegude võimalike kahjulike tagajärgede eest vastutab seda juhtinud, selle üle järelvalvet sooritanud või sellele ülesande püstitanud ning elluviimiseks vajaliku programmi loonud inimene. Täieliku autonoomia puhul ei ole aga enam ilmne, et vastutajaks peaks alati olema inimene. Kui õppimisvõimeline ja täielikult autonoomne auto põhjustab ohvritega liiklusõnnetuse, siis kas selle eest vastutab tootja või auto? Tootjale vastutuse omistamise võivad keerulisemaks teha järgmised asjaolud:
• Kuna auto riist- ja tarkvara loomisega oli tõenäoliselt nii otseselt kui kaudselt seotud suur hulk inimesi, siis ei ole alati tagantjärele selge, kelle otsused või teod lõpuks õnnetuseni viisid.
• Mõned auto riist- ja tarkvara osad võivad olla esialgu loodud mõnel muul otstarbel mõne teise firma või hoopis tarkvara poolt.
• Sarnaselt iseseivalt maletama õppinud programmile võib ka iseseisvalt sõitma õppinud autonoomne auto üllatada oma loojaid senitundmatute liiklemisstrateegiate avastamisega, mida viimastel oli võimatu ette näha.
Üks viis võimalike tulevaste autonoomsete robotite poolt tekitatud vastutuslünga täitmiseks oleks laiendada oma arusaama moraalsetest agentidest selliselt, et lisaks täiskasvanud inimestele saaks ka teatud tingimustele vastavaid autonoomseid roboteid pidada oma tegude eest vastutavateks tehislikeks moraalseteks agentideks.
Rakendusliku poole pealt kerkiks selle lahendusega seoses esile rida probleeme seoses sobivate moraalsete otsustusprotseduuride ja algoritmide leidmisega. Kuidas me saame programmeerida masinaid moraalselt arutlema, kui meil ei ole hetkel üksmeelt isegi inimesi puudutavate moraaliprobleemide lahendamise viiside osas.
Moraalses ja õiguslikus plaanis kerkib aga esile küsimus, kas masinatele moraalse vastutuse omistamine lihtsalt ei vabasta nende loojaid ja kasutajaid vastutusest? Samuti näib, et oma tegude eest saavad moraalselt vastutada ainult need olendid, kellel on vaba tahe, aga robotite teod on määratud kas nende programmi või juhuse poolt. Mõlemal juhul ei oleks tegemist roboti poolt vabalt valitud teoga, mistõttu ei saaks ta selle eest ka vastutada.
Joseph Emile Nadeau on aga väitnud, et kui me kunagi loome loogilise teoreemitõestaja alusel tegutsevad robotid, siis me oleme loonud selle planeedi esimesed moraalsed olendid, sest valik alternatiivide vahel on tõeliselt vaba ainult siis, kui see on täielikult läbimõeldud. Inimesed ei ole võimelised oma valikuid täielikult läbi mõtlema, sest nende ajus pole loogilist teoreemitõestajat. Seega ei ole siiani meie planeedil veel moraalseid agente olnud aga tulevikus võivad esimesteks tõeliselt vastutusvõimelisteks olenditeks osutuda meie poolt loodud robotid.
"Novumi" autor on Oliver Laas.
Kommentaarid
Alates 02.04.2020 kuvab ERR kommenteerija täisnime.