Kunstig intelligens - Vox Publica https://voxpublica.no/tag/kunstig-intelligens/ Magasin om demokrati og ytringsfrihet Thu, 22 Oct 2020 12:30:22 +0000 nb-NO hourly 1 Essayføljetong 4:9 — Teknologiane vert sterkare av seg sjølv https://voxpublica.no/2020/08/essayfoljetong-49-teknologiane-vert-sterkare-av-seg-sjolv/ Fri, 28 Aug 2020 11:21:32 +0000 https://voxpublica.no/?p=32421 No er vi ved kjernen i Jonas si forklaring av dei eigenskapane ved moderne teknologi som gjer at tradisjonell etikk og ansvarskjensle ikkje fungerer. Moderne teknologi er utanfor menneskeleg kontroll, og har difor kraft til å påverke oss på måtar vi ikkje er etisk skodd for. Menneska er underlagt teknologiens behov, men nektar å innsjå det.

            Jonas kjem inn på dette temaet stadig vekk i The Imperative of Responsibility (1984), og eg nærleser difor diverse avsnitt frå alle kapitla i boka. Martin Heideggers teknologifilosofi er eit viktig grunnlag for Jonas sin posisjon, så eg bruker ein del plass på å beskrive den fyrst.

Lars køyrer traktor
Traktoren var eit fantastisk framskritt for bønder. Den erstatta mykje tungt manuelt arbeid, og det ville vore uråd å vende tilbake til eit landbruk utan traktor. Far min kjøpte ein flott ny Massey Ferguson tidleg på 1980-talet. Eg hugsar enno den kjensla av kraft eg hadde då eg byrja å øvelseskøyre i 15-årsalderen.

Essayføljetong i ni deler

Teknologisk determinisme

Hans Jonas si framstilling kan lesast som teknologisk determinisme. Denne posisjonen tilseier at teknologiutviklinga har sitt eige momentum som trumfar menneskas forsøk på å tilpasse den til sine sosiale behov og interesser.

            Jonas såvel som andre tenkjarar i denne tradisjonen peikar på at naturvitskapen gjev moderne teknologi ein stadig aukande kapasitet og stadig breiare bruksområde som følgje av ei stadig meir sofistikert utfordring av naturen.

            Jonas går inn i ein lang tradisjon for kritiske analysar av forholdet mellom menneske, teknologi og moderne vitskap. Sjølv om dei færraste er “harde” deterministar, finn vi “mjuke” deterministiske posisjonar hjå Martin Heidegger, som eg refererte til i del 3 og går grundig inn på nedanfor, og også hjå Jacques Ellul, Marshall McLuhan, Ray Kurzweil og andre.

            Eg har sjølv drøfta teknologiutviklinga på denne måten blant anna i innlegget “Teknologi tek over” i Bergens Tidende (2020) og “Ungdommar er teknologiske deterministar” i Vox Publica (2013).

Datamaskiner og kunstig intelligens

Det beste eksempelet på at Hans Jonas er inne på noko finst i Moore’s lov. Denne seier at prosessorhastigheita til datamaskiner vil dobla seg omtrent kvar 18–24 månader. Dette har nemleg stemt på ein prikk i mange tiår.

            Utviklinga av datamaskiner frå 1940-talet har hatt nettopp den kumulative dynamikken som Jonas føreset, og som eg kjem grundig inn på nedanfor. Dataverktøy har fått både sterkare yteevne, større mobilitet, betre informasjonsoppløysing, og fleire kontaktpunkt mot andre dataverktøy og menneske. Internettet dekkjer heile planeten, og geografisk avstand betyr ikkje lenger noko for kommunikasjonen mellom menneske.

            iHuman (Tonje Hessen Scheier, 2019) ein dystopisk dokumentarfilm om kunstig intelligens, sosial kontroll og makt. Filmen viser korleis AI-teknologi veks seg stadig sterkare, og kan komme til å styre livsførselen, samfunnet og framtida til menneska i retningar som ingen ynskjer. “Du får lyst til å logge av. For godt”, skriv NRK i sin introduksjon. Filmen eignar seg godt til å illustrere Jonas sin kritiske analyse.

Dokumentaren iHuman har skapt stor merksemd det siste året. Forteljestilen i denne filmen er sterkt prega av teknologisk determinisme, og den er med respekt å melde langt mindre sofistikert enn Hans Jonas sin.

Vitskapen lagar teknologi av naturen

For å forstå den veksautomatikken Jonas snakkar om må vi gå djupare inn i kontrasten mellom handverksteknologi og moderne teknologi. Igjen er det Martin Heidegger som set tonen. Moderne teknologi kjem med ei utfordring som stiller naturen til veggs, seier han i “Spørsmålet om teknikken” (eg brukar den norske omsetjinga frå 1973).

            Naturvitskapen har ein utreknande tenkjemåte som gjer naturen til ein generelt tilgjengeleg ressurs for teknologiutvikling. Medan handverk avdekker ved å “bringe fram”, avdekker moderne teknologi ved “tvinge fram”. Heidegger seier det slik: «Den moderne teknikks form for avdekking er en utfordren, som krever av naturen at den leverer energi der hvor sådan kan utvinnes og lagres» (Heidegger 1973, s. 73).

            Der handverkaren bringer fram eit objekt, så tvinger moderne teknologi fram eit objekt. Moderne teknologi ordnar alt utifrå ei utreknande tenking som menneska tileignar seg ved å forstå naturen stadig betre gjennom naturvitskap. «Utfordringen skjer derved at den energi som skjules i naturen, legges åpen, det åpenlagte omformes, det omformede lagres, det lagrede fordeles, det fordelte sjaltes om på nytt» (Heidegger 1973, s. 75).

Alle deler er utskiftbare

Moderne teknologi er prega av den kvaliteten Heidegger kallar “ståande beredskap”. Den vitskaplege ordninga av naturen skapar produkt som pr. definisjon er byggesteinar i eit større system. Eit passasjerfly på rullebanen er eit godt døme på ståande beredskap.

            «Det er bestilt for å sikre muligheten for transport. For dette må det selv i hele sin konstruksjon, i enhver bestanddel, være bestillbart, dvs. startklart» (Heidegger 1973, s. 76). Eitkvart fysisk fly kan skiftast ut med eit anna fly, og det vert i praksis definert ved å kunne tilfredsstille bestillinga “å vere startklart”.

            Flyet består for sin del av ei rekkje utskiftbare komponentar og delsystem, t.d. seter, dører, motordeler og instrument. Dette at kvar komponent på alle nivå er utskiftbare er eit vesenstrekk ved moderne teknologi, seier Heidegger.

Eitkvart fly i Norwegian sin flåte kan utføre flyginga så lenge det er startklart, og viss eit fly har tekniske vanskar kan det erstattast av kva som helst slags anna fly som er startklart. (Pressefoto frå Norwegian).

Mennesket kan også verte ståande beredskap

“Den største fare” er i følge Heidegger at mennesket også vert ein del av den ståande beredskapen. Då vil mennesket også verte utskiftbart i forhold til ei gitt bestilling, og vil berre ha verdi så lenge det kan bidra til å tilfredsstille ei gitt slik bestilling. Då vil det knapt vere forskjell på menneske og teknologi.

            “Atomalderens fremrullende tekniske revolusjon vil kunne trellbinde, forhekse, blende og forblende mennesket, slik at den beregnende tenkning en dag gjelder og blir utøvet som den eneste” (Heidegger 1973, s. 31).

            Dette er eit skrekkscenario ikkje berre for Heidegger, men i høgste grad også for Jonas. I vår tid er varelagra til Amazon.com eit mykje brukt døme på korleis menneske kan verte ein del av ei “utreknande tenking”, men potensialet har funnest heilt sidan fabrikken vart oppfunnen.

            Både utdanning og arbeidsliv er innretta på dei ferdigheitene som mest effektivt styrkar teknologiutviklinga. Globalt er det no millionvis av jobbar som består i å programmere algoritmer, designe og tilrettelegge grensesnitt, organisere pengetransaksjonar, utføre transport og ikkje minst transportere varene som vert kjøpt og selt.

            Den IKT-kompetansen som politikarane ynskjer å dyrke hjå norsk ungdom, og den tekniske kunnskapen som trengst for husbygging, oljeutvinning, kunstig intelligens-utvikling og ikkje minst det grøne skiftet, er fundamentalt prega av den utreknande tenkjinga. Same kva menneska gjer vil vi bidra til å styrke vekstautomatikken, er Hans Jonas sitt perspektiv.

Vi er avhengige av framskritt

Moderne teknologi er det viktigaste symbolet på framskritt, og framskritt er nesten synonymt med auka materiell velstand. “Den stadig meir avanserte teknologien vert forventa å auke menneskeslektas materielle velstand ved å auke produktiviteten i den globale økonomien, skape mange forskjellige goder som kan bidra til at vi kan nyte livet, og samstundes lette byrden ved arbeidet” (s. 163).

            Jonas framhevar stadig at gode moderne teknologiar gjev oss tek all merksemda vår, og vi følgjer etter dei omtrent som husdyra følgjer etter ei bøtte med kraftfor. Og før vi merkar det har vi gått inn i innhegninga og grinda er stengt.

            “Det at teknologien har tatt over makta er ein revolusjon som ingen har planlagt, fullstendig anonym og uimotståeleg, og med ein dynamikk som ingen tidlegare teoriar har inkludert eller forutsett” (s. 127). Denne prosessen har eit tempo “med ein skremmande eksponensiell akselerasjon som ser ut til å vere utanfor einkvar kontroll” (s. 128).

Irreversibelt momentum

Framskrittet har det Jonas kallar ein “stigningskvalitet” som inneber at “det som kjem seinare alltid er betre” (s. 166). Moderne teknologi skapar “ein stadig auke i kapasitet og bruksområde i alle tenkjelege retningar i ubegrensa framtid” (s. 187). Det er denne prosessen som gjer at menneska mistar kontrollen. Jonas forklarer poenget ved å vise til ingeniørens situasjon.

            “Erfaringa viser oss at utviklingsprosjekt som vart sett i gang med kortsiktige mål har ein tendens til å gjere seg uavhengige og tileigne seg sin eigen tvingande dynamikk, sitt eige sjølvgåande momentum, som gjer at den vert irreversibel og pressar ting framover på ein måte som overstyrer ynskja og planane til dei som sette i gang prosessen” (s. 32).

            Vi er frie til å ta det fyrste skrittet, men slavar av det andre, seier Jonas. “Teknologisk drivne utviklingstrekk gjev ikkje rom for sjølv-korrigering” (s. 32).

            Vi er trua av ein katastrofe som etterkvart ligg innebygd i sjølve den historiske utviklinga, og kan difor ikkje stole på at framskrittet har ei ibuande fornuft eller at “det er ei meining med alle ting”. “Tvert imot”, seier Jonas, “må vi ta hand om denne framover-styrtande prosessen på ein heilt ny måte og utan ei kjent målsetjing” (s. 128).

iPaden er eit godt døme på Hans Jonas sin definisjon av permanent innovasjon: “marknadskapasitet for goder som ingen trengte på førehand, og heller ikkje visste om” (s. 118). Illustrasjonen er henta frå Apple sine norske nettsider.

Permanent nyvinning som vi ikkje forstår

Det einaste som er sikkert med dynamikken i moderne teknologi er at ting endrar seg heile tida, og at vår noverande etikk og våre verdisystem er dårleg eigna til å handtere denne permanente endringstakten.

            Innovasjon kan utifrå Jonas sin tankemåte definerast som “ei kunstig tilverking av marknadskapasitet for goder som ingen trengte på førehand, og heller ikkje visste om” (s. 146). Frå ein annan synstad kan denne prosessen vere positiv, for den skapar jo nye produkt som til dømes iPaden.

            For Jonas er denne mangelen på forutsigbarheit ikkje overraskande eit stort problem. “Global teknologi har auka innsatsen grenselaust og også auka gapet mellom den makta som vert iverksett og forutsigbarheita i dens langtidsverknader” (s. 118). Apple-konsernet har svært stor marknadsmakt, og når dei lanserer eit produkt som iPaden vert langtidsverknadene svært lite forutsigbare. Jo større makt, jo mindre forutsigbarheit.

            “Vi må rekne med nyvinningar utan å vere i stand til å forstå dei; endring er garantert, men ikkje kva endringa vil bestå av […] Denne permanente innovasjonen har ein ukjent X som forpurrar ei kvar utrekning. Prognosar har blitt den reine kunstarten på grunn av analysar ved hjelp av datamaskiner, men dei skjer med dette atterhaldet” (s. 119–120). Analysane fortel oss meir enn tidlegare spådommar om framtida kunne gjere, men dei syner også fram mange fleire ukjente faktorar enn før.

Teknologioptimisme

Moderne innovasjonsteori er prega av eit positivt syn på den same utviklinga som Jonas har eit negativt syn på. Clayton Christensens The Innovator’s Dilemma (1997), James McQuiveys Digital Disruption (2013) og ei rekkje liknande bøker handlar om korleis du som forretningsperson kan tene pengar på den permanente innovasjonen.

            Peter Diamandis er ein amerikansk innovasjonsguru som har analysert det økonomiske potensialet i “exponentials” i mange år. Han seier omtrent det følgjande: Så lenge menneska berre hadde handverksteknologiar var det ei lineær utvikling i den krafta teknologiar hadde, men no har vi datateknologiar som er prega av eksponensiell utvikling.

Figuren viser Peter Diamandis sin teori om “exponentials”. Han brukar fotografi som eit døme. Medan analog film knytt til Kodak og tilsvarande firma hadde ei lineær utvikling har digitale bilete knytt til Instagram, Snapchat og tilsvarande sosiale medium ei eksponensiell utvikling.

Etter mange tiår med det Diamandis kallar “computational growth”, og som igjen er basert på det Heidegger og Jonas kallar “den utreknande tenkjemåten”, har menneska no fått demokratisk tilgang til produktet av denne veksten. Med ei relativt låg investering får du tilgang til ein potensielt global marknad for ditt kommunikasjonsprodukt. Den jevne entreprenør har såleis tilgang til “exponentials” som eit verkemiddel til marknadsmakt, og kan få enorm suksess og rikdom hvis han treff blinken.

            Der Jonas ynskjer å bremse ned den permanente veksten i teknologi ynskjer altså Diamandis og dei andre teknologioptimistane å forsterke den endå meir. Dei gjev studentar og næringslivsaktørar gode råd om korleis ein kan tene pengar på å forstå prosessen. Sjå gjerne denne videoen “Disruption Caused by Exponentials” (2017) hvis du vil fordjupe deg i poenget og prøve å bli millionær.

Teknologipessimisme

Eg vender tilbake til Jonas sitt perspektiv, som er prega av sterk bekymring for menneskas manglande evne til å handtere dei etiske implikasjonane av veksautomatikken. Pessimismen er knytt til at det verkar umogeleg å snu utviklinga. Samfunnet rundt oss har akseptert stoda, og bidreg villig vekk til ytterlegare vekst. Eg avsluttar med to ferske eksempel.

            Sommaren 2020 fekk 70 Amedia-aviser støtte frå Google News Initiative til å lage automatisert journalistikk basert på kvantitative data. Konserndirektør for innovasjon, Pål Nedregåtten, seier til Journalisten: “Vi er allerede storforbrukere av Google-teknologi. Uansett hvordan vi snur og vender på det vil vi være avhengige av teknologi som leveres av de store aktørene, så vi tar imot de mulighetene vi får”. Dei er ikkje i posisjon til å utvikle uavhengige løysingar, og knyter seg berre sterkare og sterkare til Google.

            Sommaren 2020 var det debatt om bruken av amerikanske dataverktøy i norsk skule. Kunnskaps- og integreringsminister Guri Melby skreiv i ein kronikk til NRK at nettbrett som iPad skal “brukes til å tilegne seg ny kunnskap, og nye ferdigheter”. Dei bekymra røystene seier at vi ikkje veit nok om korleis slik teknologi påverkar barns utvikling.

            Sjølv om læringsforskarar arbeider for å finne ut meir presist korleis ny teknologi påverkar barns læring vil ministeren imidlertid ikkje vente på resultata. Ho skriv: “Det er krevende for forskningen å holde tritt med den teknologiske utviklingen. Samtidig går den teknologiske utviklingen sin gang, og den utviklingen kan ikke norsk skole melde seg ut av”.

            Desse to sitata viser at både mediebransjen og skuleverket er grunnleggande avhengige av dei verktøya som Facebook, Apple og Google har skapt. Og desse selskapa viser i sin tur kor presist Heidegger og Jonas skildrar dei overordna utviklingstrekka i moderne teknologi. Aksepten av denne vekstautomatikken er Jonas si største bekymring for framtida.

Neste del

Dette er ein essay-føljetong i ni deler. Femte del heiter “Menneska vil ha permanent innovasjon”. Medan del 4 handla mest om dei eigenskapane ved teknologi som skapar permanent innovasjon handlar del 5 om nokre opportunistiske trekk i mennesket som bidreg til den same utviklinga. Det ligg i menneskets natur å dyrke sine eigne muligheiter, sprenge grenser og ta nye skritt innover i det ukjente. Vår kapasitet for nyvinning er vår skjebne, seier Jonas.

]]>
Kunstig intelligens – venn (og fiende) i kampen mot falske nyheiter https://voxpublica.no/2020/05/kunstig-intelligens-venn-og-fiende-i-kampen-mot-falske-nyheiter/ Wed, 13 May 2020 11:01:07 +0000 https://voxpublica.no/?p=21515 Media er fulle av nyheiter om korona-viruset og Covid 19, om opphavet til sjukdomen, spreiing av viruset og kampen mot sjukdommen. Dette er naturleg sidan vi alle er sterkt påverka av dette i kvardagen. Vi er nysgjerrige og ønskjer å forstå samanhengane i det som skjer. Denne situasjonen er fruktbar mark for spreiing av idear som at Microsoft-gründeren Bill Gates står bak korona-viruset, eller at pandemien er eit resultat av stråling frå 5G-mobilnettet. For dei fleste opplyste menneske er desse samanhengane heilt utan truverde, men likevel ser dei ut til å spreie seg som virus. Nasjonal sikkerheitsmyndigheit og justisminister Monika Meland poengterte berre for ei veke sidan kor farleg spreiing av falske nyheiter kan vere for demokratiet.

I mange av Balkan-landa er det ein industri der folk arbeider med å konstruere nye saker som gjer folk nysgjerrige. Tidsaktuelle konspirasjonsteoriar er effektive klikkfangarar, og bidrar dermed til inntening. I Russland er det troll-fabrikkar som har som agenda å svekke demokrati. Menneske, frå dei aller mektigaste til den vanlege Facebook-brukaren, ser ikkje ut til å vere interessert i sanninga og spreier slike saker. Mange har meir glede av å få stadfesta eigne meiningar eller få positiv merksemd frå omgangskretsen.

Nettstadar som faktisk.no prøver å motverke dette ved å forklare kvifor slike nyheiter ikkje er sanne. Likevel ser vi at óg seriøse media innimellom bit på og spreier falske nyheiter. For seriøse medieaktørar vil det vere stor hjelp i å avdekke tvilsame saker før dei når nettsida. Dagens teknologi rundt språkanalyse og analysar av opphav til bilde og videoar vil kunne hjelpe. Men dette er, som i den kontinuerlege kampen mot mikrobar, eit kappløp der berre jamleg forsking vil gjere det mulig å holde tritt med falske nyheiter-bransjen. MediaFutures er eit initiativ for forskingsbasert innovasjon der Universitetet i Bergen og store aktørar i den norske mediebransjen har ambisjonar om blant anna å utvikle teknologiar for å handtere falske nyheiter. Den kompetansen UiB har i kunstig intelligens-baserte analysar av bilde, video og språk er akkurat det kunnskapsgrunnlaget som trengs for å hjelpe mediebransjen med desse utfordringane.

Det meste av falske nyheiter som i dag vert spreidd er utforma av menneske. Dei kan for eksempel lage bilde der dei photoshoppar vekk element eller legg til element. Slikt juks vil ein i dag kunne oppdage automatisk med algoritmar som ser etter fargeforskjellar, pikslar som ikkje passar inn, eller inkonsistent skuggelegging. Når falske nyheiter-forfattar skriv tekstar vil dei gjerne ha spesielle måtar å formulere seg på, slik at ein kan bruke (ofte subtile) statistiske eigenskapar ved teksten til å sannsynleggjere at den er ei falsk nyheit. Maskinlæringsalgoritmar har blitt opplært til å avsløre slike tekstar med ganske god presisjon.

Men utviklinga går mot at ulike former for innhald vert generert automatisk. Vi har såkalla deepfakes, som er bilde og videoar som ser ut til å vere reelle, men som eigentleg er automatisk konstruert ved hjelp av såkalla djuplærings-algoritmar. Ein variant av desse er såkalla generative adversielle nettverk. Ideen her er at to djuplærings-system konkurrerer mot kvarandre. Det eine genererer bilde eller videoar, det andre diskriminerande systemet avslører falske bilde eller videoar. Det diskriminerande systemet må etter kvart som det generative systemet lagar betre og betre bilde bli flinkare til å skilje mellom ekte og falske bilde. Det generative systemet må lære seg å lage stadig meir naturtru bilde. Etter ei stund vil bilda vere så naturtru at det kanskje ikkje er råd for menneske å sjå forskjell. Då må vi stole på det diskriminerande systemet for å avdekke juks, og det vil heller ikkje vere 100%.

Tekstar kan genererast automatisk ved hjelp av språkmodellar, som er statistiske modellar av språk funne ved djuplæring. Dei kan generere tekstar som er ganske tilforlatelege, men som eigentleg kun er sekvensar av ord som stettar eigenskapane til for eksempel ein journalistisk tekst. Vi må forvente at i framtida vil ein kunne få slike djuplæringssystem til å generere journalistiske tekstar basert på utvalde, sanne eller usanne, påstandar. NTB produserer fotballreferat og valrapportar automatisk, så ideen om automatisk produksjon av journalistikk er ikkje ukjent i media. Og fake news-industrien vil sjølvsagt ikkje halde fingrane av fatet når det gjeld å generere usanne historier.

Konsekvensen er at vi i tillegg til maskinlæringsteknikkar må utstyre oss med automatiske faktasjekkarar som trekker ut påstandar frå kjelder ved hjelp av språkanalyseteknikkar, samanheld dei med truverdige kjelder og brukar sannsynsbaserte teknikkar til å vurdere om påstandar eller nyheitsartiklar er truverdige. Slik semantisk analyse av tekstar identifiserer entitetar (personar, organisasjonar) som vert omtalt i ein tekst og relasjonar mellom dei. Påstandane i teksten vert gjerne organisert i såkalla kunnskapsgrafar. Desse grafane har eit format som etter kvart er blitt ganske universelt og er brukt i internasjonale kunnskapsbasar, t.d. DBPedia, ein database med strukturert innhald frå Wikipedia. Vi vil trenge algoritmar kan samanhalde kunnskapsgrafen frå ein tekst med verifiserte kunnskapsgrafar, forklare kva som er gale og slik bidra til å avsløre juks.

En kortversjon av kronikken ble først publisert i Medier24.

]]>
Facereader – ein farleg teknologi som bør brukast i forsking https://voxpublica.no/2018/11/facereader-ein-farleg-teknologi-som-bor-brukast-i-forsking/ Tue, 13 Nov 2018 07:59:55 +0000 https://voxpublica.no/?p=19998 Det er allereie vanleg å få lest av ansiktet sitt i ulike teknologiar. iPhone X brukar ansiktsgjenkjenning for å opna telefonen.

Innafor forsking og utvikling er den biometriske ansiktslesaren eit presist verktøy som vert stadig meir tilgjengeleg. Store menger data kan lagrast og brukast vidare.

Her vil me fyrst fortelja litt om den industrien som ansiktslesaren er ein del av. Kan slik teknologi spela ei verdifull rolle for akademisk resepsjons- og publikumsforsking også? Kva er fordelane og ulempene med dette nye verktøyet for utvikling og forsking?

Fagreise til Nederland

Me drog på vitjing til Noldus Information Technology i Nederland i haust for å læra meir om temaet. Me testa eyetracking og Facereader, og me fekk forklaringar frå Patrick H. Zimmerman. Han har doktorgrad i åtferdsbiologi med fokus på dyrevelferd og dyrepsykologi, så utgangspunktet er mildt sagt forskjellig frå medievitskapen!

Slik fungerer Facereader

Facereader er ei programvare basert på maskinlæring. Den utfører automatiske analysar av ansiktsuttrykk ved hjelp av 500 nøkkelpunkt. Verktøyet kan ta imot alle video- og biletformat, og er meint å gje innsikt i den kortsiktige effekten av ulike stimuli som ein brukar vert utsett for.

Screenshot av Facereader når den les ansiktet til Lars Nyre. Foto: Lars Nyre.

Facereader analyserer muskelbevegelser i ansiktet. Analysen viser utslaget for dei seks ansiktsuttrykka glad, trist, sint, overraska, redd og ubehageleg. Programmet registrerer også meir dempa følelsar som interessert, nøytral, foraktfull, keisemd og forvirring.

Noldus har brukt 10.000 manuelt koda foto for å trena opp programvaren. Dei har testa systemet ved hjelp av ei ekspertgruppe som kjørte parallelle analyser. Facereader treffer i rundt 95 prosent av tilfella.

Programvaren har tatt høgde for menneskelege forskjellar knytt til alder og etnisitet, og det finst eigne innstillingar for asiatar, born og eldre. I tillegg går det an å kalibrere Facereader på individnivå. Nullnivået kan justerast etter kor store muskelrørsler det enkelte individet har når det viser emosjonar.

Fangar det intuitive

Me ser nokre positive sider ved Facereader som gjer at den kan brukast i humanistisk og samfunnsvitskapleg resepsjonsforsking.

Sanningsgehalt, løgndetektor. Ansiktet seier meir enn tusen ord. Dersom orda ikkje samsvarer med ansiktsuttrykket er det ansiktet som vinn kvar gong, og difor ligg det viktig informasjon i folk sine ansiktsuttrykk.

Biometrien kan fanga det intuitive, berre halvt bevisste ved menneskeleg åtferd. Det intuitive, halvmedvitne, rutinemessige.

Truverdige data

Noldus IT har ein programvare kalla Explorer der alle typar biometriske data vert registrert. Programvaren taggar emosjonar fortløpande og gir ei grafisk fremstilling fordelt på dei emosjonene forskaren vil sjå nærare på.

Desse data vil vera kobla opp mot eyetracking og biometriske data som puls og svette, og verktøya kan samanlagt gje veldig truverdige data om ein persons emosjonelle tilstandar.

Grenser for tolking

Ein ansiktslesar kan vise korleis ansiktet oppfører seg, men ikkje kva folk tenkjer. Nokon smiler når dei er nervøse, andre når dei er sinte.

Facereader er eit program som køyrer på datamaskinene i labben til Noldus IT. Ansiktet til Nyre scorar høgt på verdien “nøytral”. Foto: Malin Fjell Olsen.

Facereader viser ikkje nødvendigvis ein persons eigentlege sinnsstemning, og sjølv om ansiktslesaren kan bekrefta at informanten smiler, kan den ikkje seia kvifor ho smiler. Dette er kvalitative intervju meir eigna til å finna ut av.

Innbyr til tverrfagleg forsking

Nettopp fordi biometriske data ikkje er nok i seg sjølv, er det godt potensial for tverrfagleg forsking der også medieforskarar er involvert. Metodane til Noldus IT kan kombinerast med intervju og andre kvalitative metodar som for eksempel Institutt for informasjons- og medievitskap ved UiB har kompetanse på.

Ei slik tverrfagleg oppkobling ville vore bra. Då ville dei hermeneutisk orienterte forskarane måtta forholda seg til objektive forhold i kroppen til folk, medan behavioristiske forskarar vil måtta forholda seg til folk sine tolkingar av kva dei opplevde.

Bør utforskast på universitetet

Ansiktslesaren er ein potensielt farleg teknologi fordi den kan brukast som ein løgndetektor – og ikkje minst kan den opplevast slik av informantar. Ein slik bruk reiser mange etiske dilemma.

Vi meiner difor det er viktig at slik teknologi vert testa på universitetet, både i undervisning og forsking. Facereader bør utforskast på universitetet både fordi den har stort positivt potensial, og fordi den kan misbrukast av kommersielle, statlege og millitære krefter. Media City Bergen bør driva med design og innovasjon for å sikra at gode ansvarlege krefter også prøver ut det kraftfulle og farlege. Dette er for øvrig i pakt med teorien om transgressiv mediedesign.

]]>
Journalistikk i maskinenes tid: deepfakes, desinformasjon og hva journalister kan gjøre med det https://voxpublica.no/2018/08/journalistikk-i-maskinenes-tid-deepfakes-desinformasjon-og-hva-journalister-kan-gjore-med-det/ Wed, 29 Aug 2018 05:00:18 +0000 https://voxpublica.no/?p=19325 Tidligere i år publiserte BuzzFeed en video der den tidligere amerikanske presidenten Barack Obama liret av seg noen vittigheter langt utenfor hans sedvanlige karaktertrekk.

Det mest bemerkelsesverdige med videoklippet er imidlertid ikke det at Obama kom med slike uttalelser, men det at han faktisk ikke gjorde det. I stedet hadde stemmen til skuespiller Jordan Peele der han gir seg ut for å være Obama, gjennomgått en mediesyntesealgoritme som genererte videoen. Resultatet er forbløffende autentisk.

På nett er ingenting helt som det gir seg ut for å være, og nå enda mindre enn før. Takket være en ny type nevrale nettverk av maskinlæringsalgoritmer, kan overbevisende, men fiktive videoer, bilder, stemmer og tekst, syntetiseres fra bunnen av.

Datamaskiner kan lage virkelighetstro bilder av fiktive ansikter — med følelser, hud, alder og kjønn plottet inn via tastaturet. Stiloverføring kan endre et bildes omgivelser, og få vinter til å bli sommer, solfylt til regnfylt. Videoklipp av politikere kan lages på samme måte som en dukkefilm. Og ansikter kan byttes ut fra en kropp til en annen, kjent som “deepfakes”, noe som åpner opp for en rekke farer for rykte, sikkerhet og personvern. Ganske rystende greier.

Men på en måte kan dette teknologiske spranget faktisk være gode nyheter for journalister — og kan også være en anledning for teknologiplattformer til å vise velvilje overfor et mistenksomt publikum.

Teknologisk undergraving av sannhet

Joda, bilder har blitt manipulert mer eller mindre siden bildeteknologien ble oppfunnet. Og mediene selv er kun et bilde av en virkelighet, hvor alle utvalg, redigeringer, fremhevinger og formuleringer former publikums tolkning av hendelser og begivenheter.

TEKNOLOGIBLOGGEN
Dette innlegget publiseres som del av den nye Teknologibloggen på Vox Publica. Les mer om hva vi planlegger på bloggen framover.

Det nye her er at mediesyntesealgoritmer bryter enda mer ned vår forventning om autentisiteten til innspilt media som foto, video og lyd, og samtidig muliggjør en ny og mer omfattende inngripen, personliggjøring og enklere bruk for alle — fra skuespillere til spioner. Konstruerte videoer kan rokke ved og endre menneskers dannelse av faktiske minner av hendelser. Og visuelle bevis kan i stor grad miste sin rolle når strategiske desinformatører bruker hele det teknologiske spekteret til å undergrave enhver sannhet.

Så hva skjer når folk ikke lenger kan stole på nettmedier? Hvordan kan et samfunn ha en opplyst forståelse av det som skjer i verden når mediene såpass enkelt kan bli infiltrert av mediesyntesealgoritmer?

Dystert som det kan se ut, kan dette være en gyllen mulighet for de etablerte medienes comeback. Når publikum lærer at man ikke lenger kan stole på det de serveres på nett, er det få andre enn profesjonelt opplærte journalister med tilgang til avanserte undersøkelsesverktøy som kan innta rollen som kvalitetssikrere og faktasjekkere. Skal de gripe sjansen, bør journalister og nyhetsorganisasjoner satse på strategier som opplæring i undersøkende journalistikk, utvikling av tekniske verktøy, samt standardiserte og transparente prosesser.

Avansert faktasjekk: FaceForensics bruker maskinlæring for å avgjøre om en video av et ansikt er ekte. (Foto: Skjermbilde FaceForensics/Youtube).

Nyhetsorganisasjoner og utdanningsinstitusjoner må komme i gang med opplæring i teknikker innen medieundersøkelse (media forensics). Det er avslørende tegn ved endret og syntetisert media som et trent øye kan legge merke til — noe Hany Farids bok om bildeundersøkelser gir et par eksempler på. Statistisk analyse av fargepiksler, intensitet og deres regelmessighet kan vise tegn på bilderedigering eller bildesplicing; refleksjoner og flytpunkter kan vise geometriske avvik; og både sensorstøv og kompresjonsartefakter kan også være avslørende. I videoklipp kan munnen til syntetiserte ansikter noen ganger flimre eller se unaturlig ut; øynene kan ha et drag over seg som hos zombier. Algoritmene er ikke perfekte, men journalister, i likhet med andre etterforskere, må ha trente øyne for å oppdage feilene.

Utviklingen og integrasjonen av datastøttete undersøkelsesverktøy vil være like viktig som opplæring i medieundersøkelse. Selv om syntetisert innhold av og til kan lure det menneskelige øyet, kan det statistiske øyet til en undersøkende algoritme vite at det er forfalsket.

Verktøy for medieverifisering

Et nylig forskningsprosjekt kalt FaceForensics bruker maskinlæring til å se om en video av et ansikt er ekte, med 98,1 prosent nøyaktighet. En annen metode ser etter blodstrømmen i videoklipp av en persons ansikt for å se om pikslene blir regelmessig rødere når hjertet pumper blod.

Det amerikanske forvaltningsorganet National Institute of Standards and Technology (NIST) oppfordrer til mer forskning på området med deres Media Forensics Challenge, og det publiseres faktisk årlig hundrevis av forskningsartikler om digitale undersøkelser.

Det er imidlertid et stykke igjen før denne teknologien er billig nok til allmenn bruk og dermed praktisk i journalistikken. Selv om det finnes noen få integrerte verktøy, som InVid som bidrar til medieverifisering, er de fleste datastøttete undersøkelsesmetoder fremdeles prototyper i forskning og langt fra tilgjengelig i den daglige journalistiske arbeidshverdagen. Her trengs det mer utprøving i praksis.

Det er dessuten viktig at andre enn bare nyhetsorganisasjoner holder et øye med falskt videomateriale. Noen av de andre berørte har egne forskningsmidler, for ikke å glemme dype lommer: Informasjonsplattformer som ofte ender opp med å være vert for syntetisert media kan bidra til denne nødvendige utprøvingen. Hvis Facebook og YouTube for eksempel integrerte FaceForensics-algoritmen, ville de kunne flagge og tydelig merke videoer mistenkt for å være falske. Det ville være nok et signal til brukerne og mediene om å være oppmerksom på videoens autentisitet, og det ville kunne være en måte for teknologiplattformer å vise vilje til å handle til samfunnets beste, i stedet for kun å gå etter kortsiktig økonomisk vinning.

For å bygge opp denne sårt trengte tilliten, ville plattformene også måtte være åpne om hva denne slags “autentisering” innebar. Hvis denne prosessen var integrert i for eksempel YouTubes filter for begrenset innhold, ville sluttbrukerne kunne kontrollere hvorvidt flaggete videoer skal automatisk skjules eller ei. Og hvis teknologiske selskaper gjorde algoritmer for medieverifisering gratis tilgjengelig via API-er, kunne datajournalister integrere verifiseringssignaler i arbeidsflyten slik de selv ønsket, mye av det samme som gjøres i dag for trivielle oppgaver som geokoding av gateadresser i breddegrader og lengdegrader.

Kontekstens betydning for autentisitet

Men teknikker innen medieundersøkelse kan likevel kun hjelpe oss et stykke på vei. De kan være vanskelige å bruke, kreve mye opplæring for å kunne tolke, er ofte heller ikke absolutte, og — som enhver form for informasjonssikkerhet — vil trenge konstant og vedvarende teknisk støtte og oppsyn.

En annen gren innen undersøkelsesmetoder ser på mediekontekst for å avgjøre autentisitet: Hvis et bilde lett kan syntetiseres, vil metadata om tidspunkt, sted, sosial setting eller annen kontekst bli desto viktigere for en reell verifisering. Hvis et mistenkelig interessant bilde er lastet opp av en konto opprettet dagen før og har det som ser ut til å være en horde av bot-følgere, er dette nok en faktor å ta med i beregningen. Å tolke kontekst for å støtte verifisering er en ny form for kompetanse innen medieforståelse der journalister, nok en gang, vil trenge opplæring, ekspertise og verktøy som bidrar til å få noe ut av den store skyen av kontekst.

På samme måte som verifiseringsprosedyrer for sosiale medier er systematisert og tatt i bruk av organisasjoner som Storyful og Bellingcat — som følger rigide prosedyrer for å triangulere, bekrefte og underbygge innhold og dets opphavssted -, må journalister utvide og kode arbeidsflyten for å vurdere hvorvidt et bilde, en video eller tekst er resultatet fra en eller annen mediesyntesealgoritme. Nyhetsorganisasjoner burde gå hardere inn for transparente metoder. Robuste og standardiserte prosesser for verifisering og utrensking av syntetisert media må utvikles og publiseres åpent. Deretter må nyhetsorganisasjoner offentlig forplikte seg til å følge disse standardene. Det handler om tillit. Folk vil kanskje strømme til de mediene de vet følger nøyaktige og omfattende prosedyrer.

Artikkelen er oversatt fra engelsk av Camilla Skogseth Clausen.

Hvis vi ikke kan stole på det vi ser på nett, kan vi kanskje ha tillit til at et mediehus følger en rigid prosess for å sikre at det de publiserer er autentisk. Syntetisert media kan da være akkurat det som fører publikum tilbake i armene til de etablerte nyhetsorganisasjonene.

]]>
Transgressiv mediedesign – forsking på farlege teknologiar https://voxpublica.no/2018/08/transgressiv-mediedesign-forsking-farlege-teknologiar/ Wed, 22 Aug 2018 05:39:05 +0000 https://voxpublica.no/?p=19281 Forskarar bør særleg utforska teknologiar som har kraftfulle eigenskapar. Droner er eit godt eksempel, men også kunstig intelligens-baserte verktøy som ansiktsgjenkjenning, syntetisk tale og sjølvkøyrande bilar.

Kva er mediedesign?

Vi har jobba med ei tilnærming kalla “mediedesign” i mange år. Her vert metodar frå informasjonsvitskap kombinert med teoriar frå samfunnsvitskapane og humaniora.

Forskarar og studentar utgjer eit team eller ein redaksjon som utviklar dataprogram, lagar interaksjonsdesign og skriv journalistisk innhald. Dette utgjer eit provisorisk medium som vi testar saman med relevante målgrupper, til dømes avislesarar. Vi forsøker å forstå teknologiske og perseptuelle prosessar ved å prøva dei ut sjølve og kjenna på dei teknologiske kreftene gjennom programutvikling, eksperimentering og evaluering med vanlege brukarar.

Vi har gjennomført prosjekta Lokanytt (Nyre et.al. 2012) om lokativ lokaljournalistikk, PediaCloud om geo-lokaliserte Wikipedia-oppslag (Tessem et.al. 2015) og NewsCloud (Tessem og Nyre 2016) om mikrolokaliserte nyheiter i Bergen. Føremålet med våre studier er å undersøka stadig nye kvalitetar ved dei teknologiske muligheitane, i dette tilfellet lokasjonsteknologi, og gjera eksperiment for å sjå kva som kan komma til nytte for samfunnet.

Dette er ei teknologibasert og framtidsretta medieforsking, og den trengst som eit supplement til den analytiske og historiske medieforskinga som er vanleg ved norske universitet. Vi meiner at særleg akademiske utviklingsteam må kunna akseptera ein viss risiko når det gjeld farlege eigenskapar ved teknologiane som vert utprøvd. Dette er noko vi ynskjer å satsa meir på i åra som kjem, både i forskinga og undervisninga.

Omgrepet “transgressiv”

Forskarar ved Infomedia i Bergen har allereie lenge vore opptekne av dette omgrepet. Asbjørn Grønstad forskar på “the cinema of transgression”. Dette er ei filmrørsle som brukar vald, sjokk og humor som verkemiddel for å overskrida dei etablerte grensene for kva du kan gjera i kunst og design (Grønstad 2016). Omgrepet er også knytt til dataspelkulturen. I prosjektet Games and Transgressive Aesthetics forskar Kristine Jørgensen på korleis spelaren opplever kontroversielt innhald i digitale spel (Jørgensen, 2018).

TEKNOLOGIBLOGGEN
Dette er første innlegg i den nye Teknologibloggen på Vox Publica. Les meir om kva vi planlegg på bloggen framover.

Dei gamle romarane snakka om to delar av Gallia: det cisalpine og transalpine Gallia. Det var stor forskjell på dei menneska som budde på kvar si side av Alpane. Dei cisalpine gallarane var på same side som Romarriket og utgjorde ingen fare, men dei transalpine gallarane var på andre sida av Alpane og lot seg ikkje så lett kontrollera eller forstå. Å dra til den andre sida betyr at du står overfor fare. Det er risikabelt å kryssa fjellet.

Cisgressiv design

Overført til design kan poenget leggast ut slik: Cisgressiv design er på same sida av normverket som brukarane, og fører til ei styrking og vidareføring av status quo. Cisgressiv design skal konservera eksisterande funksjonar og verdiar, til dømes at ein avisredaksjon skaffar seg nye tekniske løysingar som understøtter deira noverande mål om 8.000 betalande abonnentar.

Sustaining/konserverande teknologi skapar effektivisering ved å fjerna nokre ledd og prosessar, men det skjer ikkje nemneverdige endringar i kommunikasjonsnormene. Innføringa av DAB-radio i Noreg er eit eksempel på dette.

Transgressiv design

Transgressiv design derimot er på veg over fjellet, og der finst det disruptive krefter som undergrev dei noverande funksjonane og normene. Vi vil bruke ansiktsgjenkjenning som gjennomgåande eksempel. Denne typen maskin- eller datasyn er basert på kunstig intelligens og er ein viktig ny teknologi i vår samtid. Det er lett å registrera ansikta til folk, det er lett å laga falske eller manipulerte bilete av folk, og vanskeleg for den enkelte å halda kontrollen.

Slik teknologi går rett i strupen på Vær varsom-plakaten i norsk journalistikk. Vær varsom-plakaten tillet ikkje manipulasjon av foto. “Bilder som brukes som dokumentasjon må ikke endres slik at de skaper et falskt inntrykk,” åtvarar paragraf 4.11. Dermed følgjer det at datasyn og manipulasjon er problematisk i seriøs norsk journalistikk.

Datasyn i journalistikken

Prosopo er det fyrste prosjektet som aktivt brukar ei transgressiv tilnærming til design og evaluering. Prototypen dreier seg om biletbruk i kriminaljournalistikk, og forsøker å reformulera den journalistiske verdien identitet ved hjelp av manipulerte portrettbilete. Prosopo er eit mediedesign i forskingsprosjektet Vismedia ved Universitetet i Bergen (Midtun, 2017; Lien 2017a; 2017b).

Datasyn er i ferd med å verta vanleg i mange mediesamanhengar

Ein Android-app lagar «gjennomsnittsbilete» av eit ansikt basert på kunstig intelligens-teknologiar. Vår hypotese var at aviser kan bruka slike bilete for å skapa sterkare identifikasjon. Dei kan visa realistiske, men referanselause bilete av interessante personar i ei sak. Det kan vera ei ung jente som er offer for seksuell mishandling, eller ein voldsforbrytar som har rømt frå fengselet.

Gjennomsnittsbiletet viser det etniske opphavet til personen, og naturlegvis også kjønn, alder og eventuelt andre særpreg. Desse kvalitetane vil gjera at lesaren får sterkare identifikasjon med nyheitssaka, er vår hypotese.

Ikkje overraskande framstår dette som djupt problematisk for journalistar. Vi snakka med journalistar i Bergens Tidende, TV 2 og NRK, og deira respons på bruk av datasyn i journalistikk var eintydig negativ. Å bruka slike bilete i nyheitsformidling bryt med normene i Vær varsom-plakaten, og kjem ikkje til å bli aktivt utforska av avisene sjølve.

Kva om endringane skjer uansett?

Prosopo lærte oss at etablerte nyheitsmedier ikkje utan vidare er interesserte i å eksperimentera med transgressive former. Men datasyn er i ferd med å verta vanleg i mange mediesamanhengar, og vil kunna påverka folks måte å forstå verda på uavhengig av kva journalistikken gjer.

Nokre nye teknologiar er så kraftfulle at dei undergrev eksisterande normer

Snapchat, Musicly og andre sosiale medier brukar ansiktsgjenkjenning og ‑manipulasjon som overskrider alle tidlegare former for biletpresentasjon. Brukarane kan tulla med biletet, og skifta ut andletet, setja kaninøyrer på, eller skifta kjønn. Ofte er det ikkje så nøye kva biletet representerte i utgangspunket, eller om det i det heile tatt har ein verkelegheitsreferanse.

Transgressiv design tek ikkje omsyn til eksisterande kommunikasjonsformer. Nokre nye teknologiar er så kraftfulle at dei undergrev eksisterande normer og tvinger oss til å etablera nye normsett. Desto meir prekært er det difor at akademia satsar på transgressiv mediedesign som ein del av forsking og utdanning. Til dømes bør utdanningane i Media City Bergen i særleg grad verta involvert i denne typen framtidsorientert, risikovillig design.

Kjelder

Grønstad Asbjørn (2016). From an Ethics of Transgression to a General Ethics of Form. In: Film and the Ethical Imagination. Palgrave Macmillan, London

Jørgensen, Kristine (2018). Games and Transgressive Aesthetics. About the GTA Project.

Lien, Camilla (2017a) “– Jeg kan ikke se noen stor nytteverdi”. I TekLab 7. august 2017.

Lien, Camilla (2017b) “Kunstig intelligens utfordrer presseetikkens normer”. I TekLab 16. august 2017.

Lien, Camilla (2017c) “Gambling med skjør troverdighet”. I TekLab 2. oktober 2017.

Midtun, Joar (2017) Automatic Facial Anonymisation Using Average Face Morphing. Masteroppgåve ved Universitetet i Bergen.

Midtun, Joar, Bjørnar Tessem, Simen Karlsen & Lars Nyre (2017) “Realistic face manipulation by morphing with average faces”. Norsk Informatikkonferanse 2017.

Nyre, Lars; Bjørnestad, Solveig; Tessem, Bjørnar; Øie, Kjetil Vaage (2012). “Locative journalism: Designing a location-dependent news medium for smartphones”. In Convergence 18(3) s. 297–314.

Tessem, Bjørnar, Solveig Bjørnestad, Weiqin Chen, Lars Nyre (2015). “Word Clouds for Locative Information”. In Journal of Location-based Services. 9(4):254–272.

Tessem, Bjørnar; Karlsen, Simen Skaret; Nyre, Lars. 2016. Mobilen som distribusjonskanal for hyperlokal journalistikk. NOKOBIT — Norsk konferanse for organisasjoners bruk av informasjonsteknologi. 24. 16 sider.

]]>
Ny blogg om teknologi og medier https://voxpublica.no/2018/08/ny-blogg-teknologi-og-medier/ Wed, 22 Aug 2018 05:38:44 +0000 https://voxpublica.no/?p=19279 Et kvart århundre etter at world wide web markerte starten på de digitale omveltningene, synes den teknologiske utviklingen bare å akselerere. Men mens teknologien tidligere ble omtalt som et gode, ja til og med frigjørende, klinger nå dystrere toner med når den siste nyvinningen presenteres. Kunstig intelligens og maskiner vil eliminere arbeidsplasser i bransje etter bransje, blir vi advart om; offentligheten splittes opp i godt isolerte ekkokamre, med skumle konsekvenser for demokratiet.

Kunstig intelligens og offentligheten

Innleggene i denne nye bloggen vil tolke teknologiens betydning for mediene ut fra fagfelt som medievitenskap, designvitenskap, programutvikling, kunstig intelligens, teknologifilosofi og innovasjonsteori. Skribentene vil granske hvordan konkrete teknologier setter medienes etablerte arbeidsmåter under press. De vil også analysere hvilke begreper og forståelsesrammer vi tar i bruk når vi snakker om teknologien.

Bloggen startes i samarbeid med TekLab ved Universitetet i Bergen. TekLab er et initiativ for å fremme akademisk forskning som sikrer at kunstig intelligens og andre avanserte teknologier brukes på en best mulig måte for offentligheten. Innleggene blir også publisert på TekLabs nettsider.

Farlige og spennende teknologier

Det første innlegget “Transgressiv mediedesign” er skrevet av forskerne Lars Nyre og Bjørnar Tessem, begge ved Infomedia på UiB og TekLab, og illustrerer godt hva bloggen vil by på. De to peker på at flere nye teknologier oppleves som “farlige”: Droner, ansiktsgjenkjenning, syntetisk tale. I mediesammenheng er det farlige at de truer for eksempel innarbeidede presseetiske regler og praksiser. Men de er også farlige i betydningen “spennende” – teknologiene kan brukes av mediene for å løse samfunnsoppdraget på nye måter. Ved hjelp av transgressiv mediedesign kan forskere ta for seg farlige teknologier på en ansvarlig og nytteorientert måte, hevder Nyre og Tessem.

Bloggen vil vie kunstig intelligens (AI) spesiell oppmerksomhet. Den offentlige samtalen om AI er det kanskje beste eksemplet på hvordan heseblesende hyllest kombineres med bange anelser om konsekvensene av ny teknologi. Men hva er egentlig kunstig intelligens, og hva er de viktigste problemstillingene for medier som vil utnytte det smarte, men styre unna det skumle?

Bidragsytere på bloggen vil være forskere ved UiB og andre forskningsmiljøer i inn- og utland, medarbeidere i medie- og teknologivirksomheter samt uavhengige skribenter. Bloggen vil også publisere bearbeidede innlegg fra seminarserien AI Agora, der eksperter på kunstig intelligens tar for seg viktige tema og tilnærmingsmåter. Vi tar sikte på å publisere et nytt innlegg hver måned det første halvåret.

Ta kontakt dersom du har innspill til bloggen eller kunne tenke deg å bidra med eget innlegg.

]]>