Den siden av teknologi som er både vanskelig å etablere og muligens lett å avfeie er de mindre åpenbare effektene som kommer i form av hvordan teknologien former oss, hvilke handlinger som oppmuntres, hvilken retning vi dyttes i.

KUNSTIG INTELLIGENS OG ETIKK

Mange av oss har sikkert lest om de utallige spådommene om hvilke goder og onder som kunstig intelligens (KI) kan gi oss. Hvilke etiske sider ved KI bør vi reflektere over?

Publisert Sist oppdatert

Som en teknologi med mulighet for bred bruk, åpner KI for en rekke interessante spørsmål for etikken om hvilken bruk og utvikling som er ønskelig. KI deler dette med mye annen teknologi der mål og middelet er av betydning for oss, der verdier er en del av dens utforming/oppbygning og der teknologien påvirker oss og miljøet. Generelt har en del teknologi den konsekvensen at den bidrar til å styre oss i bestemte retninger, den åpner og lukker handlingsrom, og den kan ha mer eller mindre gjennomtenkte verdier bygd inn i seg. Slik sett er ikke teknologi på noen måte uskyldig, men er i stedet formgivende for hvilke handlinger og tanker som fremstår som åpne og attraktive. Dette gir oss en grunn til å stoppe opp og tenke over hva det er teknologien gjør med oss og hvilke handlinger den skyver oss mot.

For å ta et enkelt eksempel som kanskje ikke umiddelbart slår mange som teknologi: fartsdumpen. En fartsdump regner vi som teknologi fordi den er menneskeskapt og har et formål. Dens formål er å regulere hastighet på en vei der det er fare for påkjørsel (særlig av barn som leker). Man kan åpenbart kjøre veldig fort og med det risikere å ødelegge bilen sin eller i verste fall være årsaken til en påkjørsel. Likevel fremstår det for de fleste som en mer attraktiv handling å kjøre sakte. Dette er en tanke som vi naturlig har når vi møter en fartsdump. Vi blir styrt mot en slik handling og tanke av denne teknologien.

Et annet eksempel er de mye omtalte automatiske strømmålerne (ams-målere) som nå inntar folks hjem. Formålet med denne teknologien er blant annet å kunne gi bedre oversikt over forbruk gjennom hele døgnet. I lys av de siste måneders strømpriser har dette ført til en økt bevissthet om hvilke tidspunkt i døgnet det lønner seg å bruke elektrisitet. Det er mindre attraktivt for forbrukeren å kjøre vaskemaskin, oppvaskmaskin og lade el-bilen midt på dagen når strømprisen er høy framfor om natten når den er lav. Teknologien styrer oss mot et visst handlings- og tankemønster.

Så vi ser at selv helt enkel teknologi kan påvirke oss og styre oss mot bestemte handlinger og tanker. Dersom omfanget av mulig bruk av KI lever opp til lovnadene, så er det rimelig å anta at også denne teknologiutgaven fungerer på en lignende måte. Det har allerede vært rapporterte tilfeller av sovende sjåfører i selvkjørende biler. Det er lettere for vedkommende å trekke seg tilbake fra kjøringen enn for de som ikke har slike funksjoner i bilen. Teknologien i bilen oppmuntrer til visse handlinger og tanker som ikke er tilfelle med vanlige biler.

Som bil-eksempelet viser, så er det særegne med KI dens evne til å handle selvstendig og utføre kompliserte oppgaver. Særlig ved moderne utgaver av KI er det dessuten en usikkerhet knyttet til noen av de teknologiske løsningene (mer om det senere). Moderne KI kan lære. Dette kan gjøre det vanskelig å kontrollere hvilke avgjørelser som teknologien fatter og stoppe handlingene den velger i en gitt situasjon.

Med moderne kunstig intelligent teknologi forstår jeg en type teknologi som gjør oppgaver på en intelligent måte, der dette innebærer evnen til å oppnå mål av en viss kompleksitet og ofte på selvstendig vis. Nivået på både intelligens og selvstendighet kommer i grader, der graden avhenger av hvilke evner teknologien har til å ta til seg, bearbeide, og bruke informasjon opp mot målet den er satt til å gjøre. I noen tilfeller vil denne typen teknologi dessuten kunne velge blant forutbestemte mål. Akkurat hvor finkornet graderingen er avhenger av hva teknologien er tenkt å gjøre.

Det er imidlertid litt problematisk å prate om generelle eller overordnede etiske betraktninger og spørsmål ettersom hva som anses for å være problematisk eller ikke vil i stor grad være knyttet til den konkrete konteksten teknologien jobber innenfor. Løsningene vil på lignende vis også være avhengig av den konkrete konteksten og teknologien. Mange nålevende teknologifilosofer og -etikere vegrer seg derfor for å prate om teknologi uavhengig av konkrete situasjoner. Det er likevel rom for å prate om noen overordnete etiske betraktninger som ofte trekkes fram i diskusjonene rundt KI fordi disse springer ut av noen trekk ved den moderne utgaven av KI. I tillegg kan og bør vi lene oss på tidligere teknologifilosofiske og -etiske betraktninger der de er relevante.

I denne teksten vektlegger jeg fem områder med potensielle etiske problemer som ofte trekkes fram i litteraturen om KI og etikk.1 Disse er sikkerhet, transparens, personvern, ansvarlighet og mulig uønsket bruk.

Sikkerhet

Hvordan ville du opplevd det dersom du fikk avslag på en jobb du søkte på og var kvalifisert til, og du senere fikk vite at årsaken til avslaget var en kjønnsdiskriminerende algoritme? Akkurat dette var tilfellet da Amazon prøvde ut sin ansettelsesalgoritme.2 Årsaken var helt enkelt at den var trent på ansettelser i Amazon de siste ti årene og her var det en betydelig overvekt av menn. Algoritmen fant dermed et mønster som den vektla da den vurderte nye søknader. Var du kvinne innebar det at algoritmen foretrakk deg i mindre grad enn en mannlig kandidat.

Hva har dette med sikkerhet å gjøre? Vel, eksempelet viser noe av utfordringen med KI. Her er det prat om noe relativt ufarlig, men konsekvensene kan være verre dersom formålet og handlingsrommet til teknologien er annerledes og større.

I litteraturen pekes det særlig på to sikkerhetsmessige utfordringer knyttet til KI: manglende forståelse av og innsikt i hvordan teknologien kommer til en beslutning, og kvaliteten på dataen som brukes i opptreningen av den.

Moderne KI-teknologi kjennetegnes av en evne til å ta til seg, bearbeide og bruke informasjon – også kjent som maskinlæring. En enkel måte å tenke på denne læreevnen er at det handler om å finne mønstre i data. Dette innebærer samtidig at mye moderne KI ikke er fullstendig forhåndsprogrammert, men blir lært opp ved hjelp av data i form av mange eksempler og noen begrensninger satt av oss. På denne måten lærer teknologien seg å finne mønstre blant eksemplene som kan anvendes for å klassifisere ny og ukjent data.

Et problem ved datadreven læring er dermed mengden og kvaliteten på dataen som brukes i opplæringen. Ikke bare må dataen representere relevant innhold på en god måte, men den må i tillegg sikres mot bias og være innhentet og behandlet på riktig/lovlig/samtykkebasert vis. Det er dessverre allerede vært flere tilfeller hvor bias i dataen har fått utslag hva som blir foreslått eller valgt av maskinen.

I noen av maskinlæringsteknikkene er det i tillegg umulig å se eller vanskelig å tolke hvilke mønstre i dataen som avdekkes. Dermed er det heller ikke mulig å vite hva som blir vektlagt som relevant og hva som leder til en avgjørelse. Dette blir ofte kalt maskinlæringens svarte boks enkelt og greit fordi vi ikke har tilgang til resonneringen som foregår inne i maskinen. Det har derfor vært noen uønskede overraskelser opp gjennom årene med KI. For eksempel da Google Photo feilkategoriserte mørkhudete personer som gorillaer3 eller da COMPAS-algoritmen brukt i noen rettsaler i USA kategoriserte mørkhudete som å ha høyere risiko for å begå ny kriminalitet enn hvite amerikanere.4

Den manglende innsikten i og forståelsen av hvorfor en KI kommer fram til en bestemt avgjørelse blir derfor ofte tolket som at slike maskiner har en usikkerhet eller uforutsigbarhet knyttet til hva de kan gjøre.5 Det vi med sikkerhet kan si om KI er at vi vet hvilke avgjørelser den har kommet fram til tidligere, men når vi ikke vet hva som blir vektlagt, så åpnes det for en usikkerhet om hva som kan komme.

Dette åpner for en diskusjon om hvilket skadepotensial som vi bør anse som akseptabelt i lys av mulig gevinst og nytte i konkrete situasjoner hvor KI vil bli brukt. Vi må nok leve med en aksept for uforutsette skadevirkninger uavhengig av type teknologi, men noen kontekster for bruk av KI fordrer ekstra varsomhet og diskusjon rundt hvilken grense som skal settes.

Transparens

Vår manglende mulighet til å inspisere den svarte boksen kan være etisk og politisk betenkelig der KI blir brukt av det offentlige og hvor befolkningen forventer og har rett til åpenhet og innsyn i hva som ligger bak beslutninger. Som nettopp beskrevet, så vil ikke KI alltid kunne gi oss en forståelig forklaring på hva den vektla og hvordan. I verste fall kan innføring av slik teknologi påvirke tillitten til samfunnsinstitusjoner fordi innsynet uteblir.

Retten til innsyn i Norge er heldigvis lovfestet, og dette innebærer blant annet en rett til logikken som ligger bak automatiserte individuelle avgjørelser. Forestiller vi oss likevel en situasjon der en lovendring åpner for bruk av algoritmer med svarte bokser, så kan det føre til manglende innsyn i hvorfor akkurat du fikk avslag på søknaden om arbeidsavklaringspenger. Det vil være umulig for både utvikleren av algoritmen og saksbehandleren din å forklare for deg hvorfor du ikke fikk innvilget stønaden. Ville du vært fornøyd med en slik forklaring? Ville du stolt på avgjørelsen om å ikke innvilge stønad? Jeg tror de færreste av oss ville svart ja.

Mangelen på innsyn kan altså innebære en mangelfull mulighet til å kontrollere hvilke beslutninger slik teknologi kommer fram til, og dette kan innebære at man bør være forsiktig med å innføre den der innsikt og kontroll er avgjørende. Å automatisere beslutningsprosesser kan være tidseffektivt og ressurssparende, og dessuten fullt ut mulig, men spørsmålet er om dette er noe man bør gjøre i situasjoner hvor det er tungtveiende grunner for kontroll og innsyn.

I forbindelse med dette kan det være et problem for offentlige beslutningstakere å være tilstrekkelig informert om hvordan konkrete KI teknologier fungerer og om personer dermed kan ta veloverveide valg om innføring og regulering. Det er verdt å merke seg at innsyn i en algoritmes kode vil for en som mangler riktig kompetanse være mer eller mindre likestilt med å lese et fremmed språk.

Man kan dermed forestille seg et problem med å plassere ansvar i situasjoner hvor noe går galt dersom ingen hadde tilstrekkelig med innsikt i eller kontroll over teknologien (en tematikk jeg kommer tilbake til senere).

Til sist er det verdt å nevne at i noen tilfeller vil slik teknologi være lukket for allmennheten fordi selskapene som utvikler dem har rett til å beskytte sine løsninger mot innsyn, noe som fortsatt reiser spørsmål om innsyn og om hvilke data som lå til grunn for utviklingen av konkrete KI. En slik svart boks er ikke en del av teknologien som nevnt over, men kommer av lovverk som beskytter opphavsrett.6 Det er likevel et spørsmål om hva som bør eller skal veie tyngst: allmennhetens interesse av innsyn eller privatbedrifters interesse av å beskytte sitt åndsverk.

Personvern

Har du oversikt og kontroll over all informasjonen som blir samlet inn om deg på internett? Trykker du jevnlig på «aksepter» eller fortsetter å bruke nettsider og apper når notisen om datainnsamling og -bruk kommer opp? Jeg tror vi er mange som ikke lar disse hindre oss i å bruke apper og nettsider.

Personvernet vårt har bedret seg etter introduksjonen av GDPR.7 Det gjenstår likevel rom for betenkeligheter når det kommer til dataen som produseres av manges nærmest konstante tilstedeværelse på internett. Særlig i en tid der KI ofte består av datadrevet maskinlæring og når store mengder data er nødvendig for utviklere å oppnå gode resultater med teknologien de lager.

Det er fortsatt uklart i hvilken grad brukere gir informert og frivillig samtykke til innsamling av data, hvor god kontroll de har over hvilke formål dataen brukes til og hvem den deles med, samt om dataene blir anonymisert. Når det oppstår et valg mellom å la data om sin adferd på nettsider bli innsamlet eller ikke besøke nettsider overhode, så er det grunn til å stille spørsmål ved hvor reelt valget er. Dette gjelder i stor grad for apper på smarttelefoner i tillegg.

Selv om dette strengt tatt handler om datainnsamling og ikke KI, så er KI en betydelig driver bak hvorfor data er blitt en ettertraktet handelsvare. Som nevnt tidligere krever maskinlæringsteknikker store mengder data for å fungere godt.8

Ansvarlighet

Hvem har skylden dersom du lar Teslaen styre kjøringen og du havner i en kollisjon? Du som skal være på vakt og følge med? Tesla som laget programvaren som styrer bilen? Eller er det vanskelig å konkludere at noen helt og holdent har skylden?

Mange av oss har sterke intuisjoner om hva som rettferdiggjør og unnskylder ansvar og skyld, og disse er godt utforsket i litteraturen om moralsk ansvar. Fra Aristoteles og fram til i dag har det blitt lagt vekt på viktigheten av kontroll over handlinger og kunnskap om konsekvensene og det normative for å holdes ansvarlig. Enkle utsagn som «jeg kunne ikke noe for det» eller «jeg visste det ikke» støtter opp under intuisjonen om betydningen av kontroll og kunnskap i tildeling av ansvar for noe som har skjedd.

På lignende vis har ansvarlighet blitt problematisert i KI-etikk. Utover kjente problemer med ansvar i organisasjoner, som problemet med mange hender9 og problemet med mange ting,10 så har det blitt argumentert for et mulig ansvarsproblem spesifikt knyttet til KI. Dersom kontroll og kunnskap er betingelser for moralsk ansvar, og KI er uforutsigbare, så argumenteres det for at det kan oppstå handlinger som ingen kan kontrollere eller forutsi. Dermed er betingelsene brutt, og ingen kan holdes ansvarlig for slike handlinger.11

Spørsmålet som reises her er hvorvidt det er rettferdig å holde noen ansvarlig for handlinger som de ikke kunne hindre, være det gjennom manglende mulighet til å nekte en maskin å utføre et valg eller manglende tilgang på relevant informasjon.

Hvilke regler og begrensninger som slik teknologi opererer etter er bestemt av oss, enten det er gjort vitende eller uvitende. I tråd med en rekke rådende teknologietiske betraktninger fordrer derfor dette et ansvar hos utviklere og beslutningstakere for å minimere skadepotensiale. Likevel kan det stilles spørsmål ved hvor rettferdig det er å klandre en institusjon eller en person for handlinger utført av teknologi som er uforutsigbar dersom det foreligger en aksept fra styresmakter om at slik teknologi kan brukes.

Mulig uønsket bruk

Det er også grunn til å stille spørsmål ved hvilke beslutninger og valg vi ønsker eller anser som akseptable at KI tar på vegne av oss. Et god kjent og gjennomskrevet eksempel er «sporvognsproblemet» (trolley cases) som fikk ny vind da selvkjørende biler ble introdusert på veiene. I forbindelse med KI fremmes problemet ofte som hvilket valg en maskin skal ta når den står ovenfor et moralsk dilemma: dersom bilen kun kan velge mellom å kjøre på en eldre person eller en yngre person, hvem skal den kjøre på?

I en viss forstand er problemet slik formulert noe misvisende ettersom bilen velger etter de begrensninger og henvisninger vi gir den, dermed er ikke problemet at bilen må velge hvilket liv som er riktig å redde, men at vi ikke har et svar vi enes om. Det er altså misvisende i den forstand at dersom vi var enige om hvilket valg som var riktig, så ville det ikke vært et problem at bilen valgte slik og slik fordi valget er allerede bestemt av oss. Dette gjelder så klart bare hvis det ikke er andre grunner som taler for at valget ikke bør tas av maskinen. I noen institusjoner og kontekster som styresmaktene og rettsalene kan det være ønskelig at endelige beslutninger og domsavsigelser er i hendene på personer.

På det samme grunnlaget er det rom for å stille spørsmål ved hvor ønskelig det er at avgjørelser om å ta liv i krigssituasjoner bør overlates til kunstig intelligent teknologi. Hva innebærer det for verdigheten og verdien av et liv når beslutninger om å avslutte det blir tatt av en maskin heller enn en person? Peter Asaro er blant dem som har argumentert mot bruken av slik våpenteknologi av slike hensyn.12 I tilfelle krigføring blir gjennomgående utført ved hjelp av KI er det òg et spørsmål om dette kan senke terskelen for å gå til krig når det foreligger liten fare for tap av liv i egne rekker.

Det kan også tenkes at en slik krigføring effektivt skyver mennesket ut av beslutningsprosessen fordi hastigheten slik teknologi opererer på er såpass mye høyere enn vår egen. Dermed er det umulig for oss å ta stilling til informasjonen før en beslutning må treffes og en handling utføres. Dermed kan det være en sterk ulempe å inkludere mennesker i slike prosesser.

For å bevege oss bort fra det ekstreme og til det hverdagslige, så reises det også bekymringer knyttet til KIs inntog i arbeidslivet og hva dette kan innebære for arbeidsledighet. Som jeg nevnte innledningsvis, har KI potensiale for bred bruk. Dette er noe av det fantastiske med denne teknologien. Den kan overta arbeid som av ulike årsaker har krevd menneskelige kompetanse, som transport, telefonundersøkelser og kundebehandling.

Problemet med dette er ikke at jobber forsvinner og nye ikke dukker opp.13 Sannsynligvis vil nye jobber komme til. Problemet er heller at de som blir arbeidsledige ikke nødvendigvis lett kan tilegne seg kompetansen som kreves i det nye arbeidsmarkedet. I tillegg tenkes det at behovet for ufaglært eller mindre utdannet arbeidskraft blir mindre ettersom disse jobbene sannsynligvis forsvinner til teknologien. Det bør dog bemerkes at en rekke yrker med større krav til utdanning og formell kompetanse også risikerer å oppleve inntoget av KI, deriblant advokatyrket og regnskapsføreryrket.

Positive sider ved KI

Det jeg har pekt på til nå er utelukkende bekymringer knyttet til KI. Det er derfor på sin plass å peke på noen av godene som kan følge.

Eksempelvis har Ronald Arkin argumentert for en økt bruk av KI i form av roboter i krigføring. En vesentlig del av argumentasjonen hans lener seg på en antakelse om at teknologien vil i større grad opprettholde krigens regler enn dens menneskelige motpart. Til støtte for dette viser han til en undersøkelse av den amerikanske hæren i Irak-krigen, hvor det kommer frem bekymringsverdig holdninger til fiendtlige soldater og sivile, samt en rekke handlinger som strider med lover og regler for krigføring. Dermed er det antatte resultatet av robotisert krigføring en etisk sett bedre krig. I tillegg vil antakelig dødstallene synke når færre mennesker er direkte stridende.

En annet område der KI allerede nyter stor suksess, er bildefortolkning i medisin, hvor teknologien allerede nå utkonkurrerer oss i å avdekke bestemte sykdommer. I situasjoner der det er lettere tilgjengelig allerede klassifisert informasjon, så kan mønstergjenkjenningen til KI være en stor bidragsyter til raskere og bedre diagnostisering av sykdommer. KI har til og med vist seg å være et godt verktøy i å utvikle potensielt nye medisiner, som da en ny type antibiotika ble oppdaget.14

På lignende vis kan også teknologien være et godt hjelpemiddel i jussen der det er behov for å lese store mengder tekst og trekke ut det som kan være relevant for en sak. Riktig bruk av KI kan dermed være et godt verktøy for rettsvesenet. Alternativt kan KI også være en berikelse for de i samfunnet som kanskje ikke har tilgang til eller råd til advokattjenester, og som i stedet kan henvende seg til teknologien som et billigere alternativ.

Videre er et av de store håpene ved selvkjørende biler at de også skal være flinkere sjåfører enn oss, og dermed begrense antall ulykker som skjer i trafikken. Teknologien lider som kjent ikke under de biologiske begrensningene som av og til forårsaker ulykker, så det er ikke en urimelig antakelse av selvkjørende biler vil i likhet med robotisert krigføring lede til færre ulykker og dødsfall.

Avsluttende bemerkninger

Som med mye teknologi, er bruken og konteksten avgjørende. Vi bruker ofte teknologi for å oppnå et mål, og som kjent kan både middelet og målet være relevant for etiske betraktninger. Det er dermed avgjørende, som nevnt innledningsvis, at teknologien som er objektet for vår refleksjon blir konkretisert. Hva vi bør og ikke bør gjøre er delvis avhengig av situasjonsbestemte fakta, og det samme gjelder der teknologien tar over våre handlinger og oppgaver.

I denne teksten har jeg pekt på noen av sidene ved kunstig intelligens som kan være relevant for vår tenkning rundt etikken ved utvikling og bruk av den. I noen kontekster vil det kanskje ikke være så etisk betenkelig at vi ikke kan se hva algoritmen vektlegger dersom dette blir verifisert av en person (som for eksempel i bildefortolkning av medisinske bilder), mens i andre vil vi nettopp vite dette (som når algoritmen foreslår straffeutmåling).

Den effekten ved KI, og teknologi generelt, som er både vanskelig å etablere og muligens lett å avfeie er de mindre åpenbare effektene som kommer i form av hvordan teknologien former oss, hvilke handlinger som oppmuntres, hvilken retning vi dyttes i. Et velkjent dilemma som ofte trekkes fram i teknologifilosofien oppsummerer noe av dette: når en bestemt teknologi innføres i et samfunn, så er det vanskelig å vite hvilke konsekvenser som følger, men når teknologien er innført og konsekvensene kjent, så er det vanskelig å endre på teknologien.

Dilemmaet er en minimalt god grunn til å være føre-var og ha et øye på mulige fremtidige konsekvenser, og fordrer derfor refleksjon rundt konsekvensene ved bruk av teknologi. Dette gjelder i stor grad for KI ettersom lovnadene om bred bruk er såpass godt fundert.

Anbefalt lesning

  • AI Ethics – Mark Coeckelbergh
  • AI: Myten om maskinen – Morten Goodwin
  • Rebooting AI – Gary Marcus & Ernest Davis
  • Når dronene våkner – Tor Arne S. Berntsen, Gjert Lage Dyndal & Sigrid R. Johansen (red.)
  • Artificial Intelligence: What everyone needs to know – Jerry Kaplan

Noter

  1. "Ethics of AI Ethics: An evaluation of guidelines," Minds and Machines 30, nr.1 (februar 2020), 102, https://doi.org/10.1007/s11023-020-09517-8
  2. Jeffrey Dastin, “Amazon scraps secret AI recruiting tool that showed bias against women,” Reuters, 11 oktober, 2018, https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G
  3. Maggie Zhang, “Google photos tags two African-American as gorillas through facial recognition software”, Forbes, 1 juli, 2015 “https://www.forbes.com/sites/mzhang/2015/07/01/google-photos-tags-two-african-americans-as-gorillas-through-facial-recognition-software/”
  4. Julia Angwin, Jeff Larson, Surya Mattu & Lauren Kirchner, “Machine Bias”, ProPublica, 23 mai, 2016, https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
  5. Om denne usikkerheten er noe iboende ved disse teknikkene eller kun et praktisk problem som kan løses etter hvert er per i dag et åpent spørsmål, etter hva jeg forstår.
  6. For eksempel da Eric Loomis krevde innsyn i algoritmen som foreslo hans straffeutmåling og ble nektet dette på bakgrunn av at algoritmen er en forretningshemmelighet. Se Adam Liptak, “Sent to prison by a software program’s secret algorithms”. The New York Times, 1 mai 2017, https://www.nytimes.com/2017/05/01/us/politics/sent-to-prison-by-a-software-programs-secret-algorithms.html
  7. General data protection regulation: EU-loven fra 2018 som handler om personvern og personopplysninger. Loven begrenser innsamling og bruk av personopplysninger, og er i større grad tilpasset den digitale tidsalder enn tidligere utgaver av lignende lovverk.
  8. Det bør nevnes at nyere utviklinger minimerer behovet for data (se Alpha Zero og AlphaMu). På sikt kan derfor datainnsamling bli mindre nødvendig dersom disse utviklingene viser seg å ha potensiale for bred bruk.
  9. Dennis F. Thompson, “Moral responsibility of public officials: The problem of many hands”, American Political Science Review 74, nr. 6 (1980): 905-916, doi:10.2307/1954312
  10. Mark Coeckelbergh, AI Ethics (Cambridge, MA: MIT Press. 2020), 113-14.
  11. Andreas Matthias, “The responsibility gap: Ascribing responsibility for the actions of learning automata,” Ethics and Information Technology 6, (september 2004):175-183, https://doi.org/10.1007/s10676-004-3422-1
  12. Peter Asaro, “On banning autonomous weapon systems: human rights, automation, and the dehumanization of lethal decision-making”. International review of red cross 94, nr. 886 (2012): 687-709, doi:10.1017/S1816383112000768
  13. Det bør gjøres oppmerksom på at tallene spriker voldsomt. Se https://www.technologyreview.com/2018/01/25/146020/every-study-we-could-find-on-what-automation-will-do-to-jobs-in-one-chart/
  14. Onathan M. Stokes et al., “A deep learning approach to antibiotics discovery,” Cell, 180, nr.4 (februar 2020): 688-702, https://doi.org/10.1016/j.cell.2020.01.021
Powered by Labrador CMS