Eirik Stavelin, Forfatter hos Vox Publica https://voxpublica.no/author/estavelin/ Magasin om demokrati og ytringsfrihet Mon, 22 Jan 2018 09:59:08 +0000 nb-NO hourly 1 Faktisk lettere gjort enn sagt https://voxpublica.no/2017/08/faktisk-lettere-gjort-enn-sagt/ Thu, 17 Aug 2017 10:49:00 +0000 https://voxpublica.no/?p=17626 Som tiltak mot falske nyheter, løgn og bedrag i norske nyheter startet i år et knippe nyhetsredaksjoner faktisk.no, en ideell organisasjon som skal faktasjekke påstander som fremmes i norsk offentlighet. Faktisk.no er faktisk ganske lik det Bergens Tidende har gjort en del år med Faktasjekk.no, som igjen likner en del på prosjekter som politifact.com.

Bak faktisk.no finner vi organisasjoner som VG, NRK, Dagbladet, TV 2 og Schibsted. Det er også støttet fra universiteter, IBM og andre. Det er viktig at maktpersoner ikke slipper unna med løgn, og denne typen faktasjekk er det ikke mulig å automatisere ennå. Kanskje aldri.

Dermed er nok en koalisjon på tvers av organisasjoner en god idé.

Faktisk.no sjekker om relevante påstander som ytres i det offentlige rom stemmer. Slik faktasjekking krever et sett med kriterier oppfylt for å kunne komme til en konklusjon, for eksempel kan de ikke sjekke påstander om fremtiden, preferanser (ideologiske, religiøse, etc.) eller påstander som ligger utenfor vitenskapen (hva satt i gang the Big Bang? Eller P vs NP), eller som ikke er dokumentert (hvis et tre faller i skogen..) eller ellers hemmelig(-stemplet). Det er ikke lett.

Men det skal bli verre.

Se på dette:

Nå kan både lyd og bilde kapres, slik at lyd og bilde av mennesker som det finnes passe mengde video med ok kvalitet av, kan syntetiseres til å si hva som helst.

Om noen år kan vi altså se for oss at sannhetsgehalten i hva som sies ikke alene er vanskelig, vi må også avgjøre om noe faktisk ble sagt i det hele tatt. Hva gjør vi når Erna Solberg sier på TV at vi skal (eller ikke skal) skyte flere ulv, melde oss inn/ut av EU, bombe (sett inn land)? Putin annonserer sin støtte/trussel mot Nord-Korea? Trump annonserer TrumpCare, en gratis helseforsikring for alle amerikanere etter nordisk modell?

I polariserte samfunn, der vi alle sitter i vår egen boble og får bekreftet hvem som er de gode og onde etter eget velbehag, kan dette skape alvorlige problemer. Det er mange psykologiske prosesser som lurer oss til å beholde våre eksisterende overbevisninger (confirmation bias, status quo bias, Negativity Bias, etc). Mange av oss er allerede inni den boblen.

Illustrasjon fra Thies et al. paper

Illustrasjon fra Thies et al. paper som beskriver metode for ansiktsoverføring.

Vi kommer selvsagt til å få bedre programvare til å analysere video for juks, slik vi har for fotofikling, men her havner vi i et evig kappløp vi ikke kan garantere at offentligheten og journalistikken kommer til å vinne. Det kan bli en gal gal verden.

Ennå er denne teknologien såpass umoden at det ikke er vrient å se at noe er galt. Det er dog rimelig å forvente at dette blir vanskeligere og vanskeligere. Prosjektet til Faktisk.no er kostbart, viktig, vanskelig og ikke skalerbart. Utfordringene for faktasjekkere kommer ikke til å bli lettere i framtiden.

PS: Takk til RadioLab for å finne fram denne historien, som er en podcastepisode med tittelen “Breaking News”. De har også laget en webside der du kan utforske teknikkene som er tilgjengelige for å lage syntetiske videoer på futureoffakenews.com.

]]>
Uten roboter stopper pressen https://voxpublica.no/2017/01/autostory-robotjournalistikk/ Mon, 30 Jan 2017 08:23:13 +0000 https://voxpublica.no/?p=16989 Autostory er et essay om hvordan automatisering av redaksjonelle prosesser vil påvirke selve journalistfaget. Det tar for seg journalistisk programvare med fokus på automatisk skrevne tekster og dataene som gjør dette mulig, automatisk faktasjekk og litt om mennesker som arbeider som datajournalister.

Essayet er en slags brain-dump fra to hoder som har stirret lenge på hvordan roboter opererer med og rundt journalistikken. Vi får med en god dose beskrivelse av praksis, en del drøftede, men ubesvarte spørsmål, og noen pek inn i en potensiell framtid.

La det være sagt tidlig: Forfatterne Otterdal og Ruud er teknologioptimister.

Vi bygger boken på den oppfatning at en automatisering av tidkrevende skriveprosesser, i tillegg til å være verktøy i eksempelvis research og graving, vil gi en oppblomstring av god journalistikk i demokratiets, menneskehetens og naturens tjeneste. (p8)

De er ikke opptatt av journalistikk i form av organisasjoner eller bedrifter, de er opptatt av journalistikk som funksjon i samfunnet, og deres pek inn i framtiden viser ikke det mange som jobber i bransjen i dag har lyst til å se. De tar det som for gitt av menneskene som frigjøres fra skrivearbeidet settes til å gjøre annen god journalistikk. Litteratur-spiren som ble journalist for å betale husleia er død.

De journalister som har levd i den villfarelse at det er tidkrevende, omstendelige arbeidet med å produsere ord og setninger, at det er kjernen i journalistikk, bør kanskje se seg om etter andre yrker og fag. (p6)

Eller formulert mer etter Hegnar-prinsippet:

Egentlig tar det ikke mer enn fjorten dager å lære det grunnleggende i journalistikk. Det er mye bedre å trene opp folk med teknologisk kunnskap til å forstå journalistikk, enn det motsatte (s63).

Sånn kan man jo effektivt skremme vekk den gruppen som kanskje umiddelbart framstår som publikum for teksten. Så hvem er nå det egentlig? Forfatterne selv uttaler at det er lesere utenfor tradisjonell presse, “eksempelvis studenter som utdanner seg innen informatikk” som er publikum. En ganske smal gruppe. Jeg vil legge til universitets-folk både fra teknologi og journalistikk, medieledere (selv om det kanskje kan framstå som en grøsser for noe av dem), så vell som teknologer og hacktivister som formodentlig kan finne problemer å løse både for samfunnsnytte og profitt.

BOKOMTALE
autostory
Magne Soundjock Otterdal og Geir Terje Ruud: Autostory. Et essay om hvordan automatisering forandrer journalistikken. Cappelen Damm 2017.

Så hva er nå en “autostory” i denne sammenhengen?

Tyngdepunktet i boken er rundt tekster som er skrevet av en datamaskin, ikke av et menneske på en datamaskin. Maskingenererte nyhetstekster. Dette kan være tekster skrevet av kommersiell programvare a la Quill (Narrative Science) eller WordSmith (automated insights) eller mer spesialdesignet kode som VGs mye omtalte kommunegjeld-robot.

Om du er mer teknisk nysgjerrig kan du se på koden og presentasjonen til Jens Finnäs fra #noda16. Finnäs viser oss her et slags minimums-eksempel, som er lett å forstå. Teknologien bak Quill og Wordsmith er mer avansert. Finnäs prosjekt blir for øvrig omtalt i autostory, da i den mer avanserte (men fortsatt enkle å forstå) roboten Marple. De mener rett og slett programvare som setter sammen ord til nyhetsfortellinger — autostories. Det er i hovedsak slik programvare de snakker om når er sier “robot”, selv om de avslutningsvis også inkluderer droner.

En fremtid der nesten alle journalistiske tekster er produsert slik, eller i alle fall startet som en slik autotekst, er den verden Otterdal og Ruud forsøker å tegne et bilde av. Et ganske vakkert bilde tegner de.

Hva med ulempene?

Jeg savner en lengre diskusjon rundt ulempene. Hva med slagsidene vi baker inn i programvare? Hva med journalistiske tekster som litterære verk, med forfatterens egen tydelige stemme, språklig musikalitet, eleganse og fingerspitzgefühl som denne typen syntetiske tekster kanskje aldri får? Hva når alle som har data (offentlige, private, NGOer) genererer sine egne nyheter, basert på sine og ikke journalistikkens preferanser, publisert i de sosiale mediene der publikum er? Hva med de rene propaganda-robotene?

Mot slutten anerkjennes en del problemer, som “avkvalifisering av mannskapet” som automatisering ofte medfører, fartsblindhet, etiske utfordringer og problemer rundt automatiseringen av faktasjekking. Selv om det både finnes historiske, kontemporære og framtidige (forsknings så vel som journalistiske) prosjekter som forsøker å angripe dette, så er det slettes ikke innlysende at dette er et problem som lar seg løse maskinelt ut over spesialiserte caser. Naturlige språks (talespråk) vaghet har jo alltid være en politiker, bedriftsleder og deres spindoktors beste venn. Slike pessimistiske perspektiver er ikke å finne i autostory, selv om teksten kanskje hadde gitt et mer realistisk bilde av verden hvis den slags var tatt med.

Vi får derimot en helt annen løsning på problemet: Altså — det er mye “fake news”, sladder, feilaktig informasjon og propaganda der ute på nett. Etter å ha erkjent at markedet (som støtter finansieringen av automatiserte tekster) ikke stiller de samme type ressurser fram for sivilsamfunnets interesser, oppgir forfatterne journalistikken som løsning på problemet og foreslår å bruke (halvparten) av lisenspengene som i dag går til NRK på å “utvikle programvare som hjelper borgere med å avdekke manipulasjon, falskneri og plagiat på nett” (p83). Dette vil være en ny måte å definere et digitalt samfunnsoppdrag på, mener de. Dette er en karamell flere kan få tygge litt på.

Autostory veksler mellom å være ganske selvsagt til å være ganske provoserende. Det pekes på mange områder der journalister, studenter eller andre kan gå inn og skape noe, uten å forklare hvordan eller om det i det hele tatt er teknologisk mulig. Dette er forfriskende og henger fint sammen med det optimistiske perspektivet teksten har. Jeg tok meg selv flere ganger i å gruble på om problemer som omtales i boken i det hele tatt lar seg løse teknologisk, eller om de kan være av den typen problemer som ikke ordentlig lar seg fange av formalspråkenes krav til presisjon.

Ingen framtidstragedie

Essay-formatet tillater det formodentlig, men jeg savner en teoretisering av den journalistiske modellen i autostory. Rent hvordan journalistfaget blir etter påvirkningen av automatisering er ganske uklart — jeg savner en modell. Noe å holde i eller peke på. En slags oppsummering, og bro mellom menneskene som driver datajournalistikk (kap4) og oppgavene som skal løses (kap 2,3–5). Jeg sitter også igjen og lurer litt på hva hovedargumentet egentlig er. I (en veldig nær) fremtid skriver datamaskiner ut nyhetstekster, spesialtilpasset til rett platform og bruker, gitt rik og riktig input. Hva så? Annet enn at det blir bra, er det uklart hvordan journalistikken er endret.

Vi får en ganske ok status for autostories hos dem som ligger lengst framme i dag, vi får mange eksempler på suksesshistorier med imponerende godt oppdaterte referanser (nesten alt som omtales i autostories skjedde i 2016) og en litt uklar fremtid og implikasjoner. Å kikke inn i fremtiden er ingen lett jobb (det er faktisk umulig — selv for roboter); her får vi tegnet ned et glimt av det som er der fremme, men forfatterne kunne tillatt seg å dratt enda litt mer på. Beskrevet den hypotetiske verden litt klarere, og tatt seg noen kunstneriske friheter en robot kanskje aldri helt vil matche, og tatt med flere av nedsidene.

I siste kapittel, lengst inn i framtiden, møter vi en journalist og hans drone som dekker en trafikkulykke nær deg. Den historien skal jeg la den som kjøper boka få lese, men la meg avsløre at det ikke er en tragedie du får lese. Jeg anser meg selv som teknologioptimist, og synes det er rart å omtale et verk skrevet av to kloke menn som har brukt betraktelig tid i nyhetsredaksjoner, og ofte tenke at de har tatt litt for mye Möllers tran på teknologiens vegne — og at de har unnlatt å teoretisere og problematisere der det hadde vært betimelig.

Men kanskje — kanskje er det just denne typen løpefart og tran som skal til, de omtaler jo en bransje som sårt trenger endring og samtidig ikke vil endre seg. Hvis du har teknologiske muskler og lyst til å jobbe med journalistikk er dette en rik kilde å idémyldre rundt. Hvis du hever lønn for å skrive tekster for en avis, og har planlagt å fortsette med det, så er det best for sjelefreden din at du finner noe annet å lese.

]]>
Det beste fra Norden: nyhets­ap­pli­ka­sjo­ner og datajournalistikk https://voxpublica.no/2016/04/resurser-nyhets%c2%adap%c2%adpli%c2%adka%c2%adsjo%c2%adner-og-datajournalistikk/ Mon, 25 Apr 2016 10:34:19 +0000 https://voxpublica.no/?p=15695 Årets #noda, nordisk datajournalistikkonferanse, er just ferdig i Helsinki og for tredje gang ble det det ut pris for Nordens beste datajournalistikk. Det var i år 53 kandidater som kjempet om æren, og VG stakk av med prisen i to av fire kategorier.

Årets konkurranse hadde en ny kategori, beste mobile datajournalistikk, som den finske allmennkringkasteren YLE vant med en ny leken Tinder-variant på det gamle valgomat-konseptet. SVT tok prisen for beste applikasjon med visualiseringen Flyktingströmmar till EU, mens VG altså tok prisene for både beste undersøkende journalistikk og beste feature. De norske ofrene er et gigantisk arbeid, og identifiserer både hvem og hvor nordmenn gav sitt liv i andre verdenskrig.

Skjermbilde fra VGs prisvinnende prosjekt om de norske ofrene i 2. verdenskrig.

Skjermbilde fra VGs prisvinnende prosjekt om de norske ofrene i 2. verdenskrig.

Alle datajournalistikkprosjekter er sårbare for dataråte, så vi får krysse fingrene for at VG klarer å holde denne i live lenge, så vel som at Nasjonalbiblioteket eller liknende finner en god måte å ta vare på arbeidet til VG inn i fremtiden.

Det var VGs nedlasterne som tok prisen for undersøkende journalistikk. Det er gøy å se at gjengen i VG år etter år leverer store gode tunge dataprosjekter, de har tydeligvis et godt maskineri for å få til denne typen journalistikk. Blant de nominerte finner vi også Sunnmørsposten, Bergens Tidende og innsyn.no (FVN) fra Norge. Dagbladet, Stavanger Aftenblad, NRK, TV2 og Adresseavisen hadde også arbeider påmeldt. Alle de nominerte arbeidene kan studeres på konferansens nettsider, og også på nodabase.net hvor eksempler på god datajournalistikk samles av NXT Media.

Flere godbiter

Når vi først er på ressurs-samlinger med datajournalistikk, så har vi også en oppdatering. I 2010 lagde vi en liste over innovativ og spennende datajournalistikk presentert som nyhetsapplikasjoner. Nå har vi fått tak i en ny oppdatert liste fra Joakim Karlsen, høyskolelektor ved Høgskolen i Østfold og forfatter av flere artikler om datajournalistikk og fagfeltet mellom teknologi og historiefortelling. Listen er ispedd noen ekstra godbiter, f.eks. Jonathan Strays nye bok om data for journalister og den svært matnyttige “Quartz guide to bad data”.

Karlsen forteller at det er en tydelig smitteeffekt på hvilke formater som velges, slik at etter at New York Times lagde sin berømte Snowfall, så finner vi i nå i ettertid en hel mengde slike “snowfalls”. Dette ser ut til å være en mote, som alle hopper på og lager til det er over-brukt. Ellers er det fortsatt, som vi også ser i noda-nominasjonene, de største redaksjonene som leder an, samtidig som det er tydelig at faget fortsatt er veldig personavhengig. Det er “guruer” der ute som ofte fungerer som hjørnestein i prosjekt etter prosjekt, og som etter resultatene å dømme leder fagfeltet ved i stor grad personlig å definere hva og hvordan ting skal gjøres.

Portal-sider:

Saker:

Og enda noen godbiter for den gryende datajournalist

]]>
Stor forbedring: ssb.nos data-API v2 ute i beta https://voxpublica.no/2016/01/ssb-nos-data-api-v2-ute-beta/ https://voxpublica.no/2016/01/ssb-nos-data-api-v2-ute-beta/#comments Tue, 12 Jan 2016 11:56:48 +0000 https://voxpublica.no/?p=15571 For tiden tester ssb.no sin kommende versjon av sitt data-API og denne gangen ser alt mye bedre ut enn før: 5000 tabeller, json-stat og du kan være med å teste.

I 2009 skreiv vi i voxpublica om ssb.no’s nye websider og tanker om API, det hadde (muligens uoffisielt) kodenavn “nyessbno”. Da tiden endelig kom for et riktig API, kom data.ssb.no som hadde (og fremdeles har) et utvalg av SSBs mest populære tabeller.

Det var helt klart et skritt i riktig retning, men API-et er ganske begrenset, for eksempel for en nysgjerrige gravende journalist er dette smale utvalget formodentlig et rimelig uinteressant sted å grave.

Det som holder på å skje nå er mye viktigere: nå kommer 5000 tabeller (“alle 5000 statistikkbanktabellene”, ifølge invitasjonen til å beta-teste tjenesten). Formodentlig løpende oppdatert ettersom ny data kommer inn. Hvis dette blir praksis gjør SSB det vi håpte de skulle i forrige runde: gjøre seg relevante for digitale hoder som trenger maskinlesbare tall for viderebruk.

Dette betyr et mye bredere tilbud, et mye mer spennende tilbud og forhåpentligvis et tilbud som kan gjøre data fra ssb.no mer brukt i pressen, på kafeer, taxier og rundt middagsbordene.

Dette kan for noen kanskje se ut som en teknisk detalj (nytt API) for statistikk-nerder. Det er helt riktig, og indirekte en total misforståelse. For de som ikke leser tall med glede, leser nemlig bilder like lett som alle andre. Synet vårt er perfeksjonert gjennom evolusjon til å raskt oppfatte farer og goder så vel som trender og endring — perfekt for å tolke datavisualiseringer. Og mer data fra ssb.no i fornuftig dataformat er en servering på sølvfat for den som vil presentere tall i bilder.

Eksempler:

API-et er i beta, og ble åpnet den 22 desember 2015, så det er ikke all verdens av diversitet i eksempler å peke til ennå, men Xavier Badosa (utvikler av JSON-stat.org) har flere eksempler fra første versjon av API-et. Det er f.eks. slike ting vi kan forvente oss å se mer av:

valutta_kalk

Inflasjonskalkulator

eldregolgen

Animert populasjospyramide, “eldrebølgen”.

koroplett_norge

Koropletkart over Norge farget etter kommunens innbyggertall

smaabarn_norge_over_tid

Småbarn i Norge over tid

At SSB har data åpner også for sammenlikning med data fra andre land. Her norsk og dansk inflasjon sammenlignet.
dansk_norsk_inflasjon

Konsumprisindeksen for Norge og Danmark i samme graf.

Da Norge ikke er med i EU og vi stort sett ikke er med i målet for eurostat blir dette ekstra viktig. Her er arbeidsledighetstallene til OECD.
arbeidsledighet

Badosa har flere eksempler på bl.ocks.org — alle på det “gamle” API-et, men det nye ser ut til å følge over samme lest, som virker som en fornuftig modell. API-et er i beta, så det er ikke urimelig å finne ting som ikke virker, er feil, ikke er så stabilt eller oppdatert som et ferdig vil være, men at vi får innblikk i dette mens det fortsatt er under utforming, er en fordel for alle.

Her er APIet

Det er ikke lenket fra ssb.nos vanlige nettsider enda, men her er lenkene til det gamle og det nye (antakelig med midlertidig URL) API-et.

PS: I min iver og i tumultene av et nytt semester copy/pasta jeg eksempelkode fra pyjstat og konkluderte at jeg måtte sette meg ned med bedre tid, for dette virker ikke. Greia var at det nye API-et forventer POST-kall med parametre fra console’n. Her er python-kode som virker (takk til SSB for raskt svar):

Hvis du kjenner til flere eksempler om hvordan det nye API-et blir brukt, eller har laget noe selv, eller har noen ideer til hvordan dette kan eller bør brukes: legg igjen en kommentar under — vi trenger at disse dataene kommer til syne og til nytte.

]]>
https://voxpublica.no/2016/01/ssb-nos-data-api-v2-ute-beta/feed/ 5
Nyheter — fra bruk og kast til intelligent gjenbruk https://voxpublica.no/2015/10/nyheter-fra-bruk-og-kast-til-intelligent-gjenbruk/ Sun, 11 Oct 2015 06:59:04 +0000 https://voxpublica.no/?p=15388 Hvorfor er nyheter et bruk-og-kast-produkt, og hvordan kan vi sørge for at det ikke er det i fremtiden? Dette er et aspekt ved Jeremy Evans’ prosjekt explaain.com som nylig ble presentert i Bergen Journalism Lab. Explaain.com bygger på “strukturert journalistikk” for å gjenbruke informasjon i en nyhetsredaksjon.

Evans, som både er teknolog og journalist, presenterte først noen antagelser for problemet han ønsker å løse:

  • At dagens nyheter er morgendagens innpakningspapir for fisk, er sløsing med resurser.
  • Journalistikk kan deles inn i front-end og back-end. Back-end er informasjons-innhenting, kilde-håndtering, data-tilgang, finne fakta, etc. Front-end er det journalisten legger til: forklaringer, forenklinger, vinklinger, kritikk, etc. I våre dager kan “alle” gjøre back-end, og journalistikken må fokusere på front-end mens den sikrer at back-end er top notch. Dette kan i ytterste konsekvens bety at vi burde dele på back-ends for å holde denne så effektiv som mulig.
  • Journalistikk er viktig. Politikere bruker ufattelig mye ressurser på å finne ut hva vi tror om ting. Og hvis vi tror ting feilaktig, så tilpasser politikere seg våre feilaktige oppfatninger. Vi trenger bra informasjon for å unngå dette.
  • “Evergreen” journalistikk bør være et høyere mål. Det er en feiltagelse å ha så stort fokus på øyeblikket, på det nyeste nye, det er mye mer fornuftig å fokusere på tematikkene som eksemplifiseres i det løpende nye, som oftest er mer vedvarende og går dypere.
  • Det finnes en gylden middelvei mellom konsis, objektiv og forklarende journalistikk, som er just hva vi trenger.
    Antagelse: Det finnes en gylden mellomvei mellom konsis, objektiv og forklarende journalistikk, som er just hva vi trenger.

    Antagelse: Det finnes en gylden middelvei mellom konsis, objektiv og forklarende journalistikk, som er just hva vi trenger.

  • Selv om vi alle er partiske på et eller annet nivå, så vil kildehenvisning på et mer granulært nivå gjøre dette mer synlig både for lesere og journalister, og dermed mer håndterbart.
  • Nyheter kan atomiseres.

Løsningen Evans luftet kan du se en prototype av på explaain.com. Den er ikke ferdig ennå, og er mer som en idé som ennå ikke har funnet helt form. Ideen er dog god, og vi har sett den før. Jeg har omtalt den som database-journalistikk (da formen låner mye av sin funksjonalitet fra relasjonelle databaser), men som også omtales som strukturert journalistikk.

Poenget er å komme vekk fra en verden der en story er en gammeldags tekst (som denne bloggposten), og å komme til at en story blir en rekombinering av storyens iboende bestanddeler. Mennesker er person-objekter, steder er sted-objekter, osv, og når vi allerede har mye informasjon om mange både steder og mennesker, trenger vi å skrive minimalt om disse gang på gang. Og for hvert nye objekt, eller kunnskaps-atom, så vokser organisasjonens kollektive kunnskap og nye stories tar kortere tid.

explaain

Her ser vi et eksempel på hvordan dette kan se ut på explaain.com. Til venstre under overskriften: “the gist” (sakens kjerne) er en tekstlig bekrivelse av hva som har skjedd. Den er kompakt og inneholder bare det viktigste. Nesten alle setningene er klikkbare for å vise mer informasjon. Evans bruker læringskort (flash cards) som metafor for alle atomiske fakta i systemet sitt. Når jeg klikker på den første setningen, får jeg opp informasjon for læringskortet om “tv-debatten”, ved å klikke videre på “general election” får jeg opp læringskortet for parlamentsvalget i 2010, som denne debatten foregikk i forkant av. Noen trenger ikke all denne informasjonen, mens andre gjør det. På denne måten kan informasjonsmengden justeres etter leserens behov.

Den grafiske framstillingen vi vises her likner mye på modeller for hypertekst-journalistikk som var brennhet på slutten av 90-tallet (se for eksempel forskningen til Martin Engebretsen), med den forskjellen at dette ikke er ment som et navigasjonslag, men en organiserings-form for en nyhetsplattform helt fra database-server til sluttbruker. Journalistikk-som-plattform er et av målene for Evans.

Vi ble vist andre måter disse læringskortene kan rekombineres på, og med andre visuelle presentasjoner, for å fortelle journalistiske fortellinger basert på ulike læringskort. Et viktig poeng med kortene er at de kan gjenbrukes mellom flere forfattere, og også endres til ulike versjoner for å rette opp vinklinger. Hvem som er forfatteren av hvert kort vil alltid kunne sees, slik at publikum og journalister får innsikt i hvems formuleringer som gjenbrukes. Kortene kan være beskrivelser av personer, steder, osv, men også være datasett, visualiseringer, videoer, lydsnutter, dokumenter, etc. Andre visuelle former kan for eksempel være i form av lysbildevisninger, tidslinjer, annoteringer av kart, etc. Kortene skal lett kunne rekombineres og gjenbrukes. Fold.cm ble trukket fram i diskusjonen som en mulig fremtidig inspirasjonskilde.

Ideen om strukturert journalistikk, å atomisere journalistiske produkter for så å sette dem sammen igjen på en gjenbrukbar måte, har vi sett før. Politifact og everyblock har vært brukt som eksempler. Selv synes jeg HomicideWatch D.C. er et fint eksempel: vi har en stor database over fakta (drapssaker) og kan lett navigere denne på en måte som avslører database-spørringer (homicidewatch.org/victims/race/black/ lister ut saker der offeret er en afroamerikaner). Dette kan også gjenbrukes til å lage et kart, finne trender over tid, gi innsikt i hva slags folk som blir involvert i drapssaker, og også skrive mer tradisjonelle tekster, men som pepres med bakgrunnsinformasjon i form av lenker til ulike utsnitt av databasen (se eksempel). Mer data i databasen gir desto flere utsnitt, vinkler, sikkerhet i statistiske analyser, sjanser til å påpeke når vi snakker om ekstraordinære tilfeller, belegg for argumenter osv.

Når begynner din avis eller din redaksjon med strukturert journalistikk?

Evans’ prosjekt starter mellom to stoler. Det har helt klart potensielle kommersielle muligheter for denne typen systemer, og tydelige journalistiske muligheter. Det er bare ikke så lett å få disse til å begge spille ut på samme tid, og om explaain blir en software som redaksjoner kan kjøpe, eller som et crowdsourcings-verktøy online, eller som en ny produserende journalistisk aktør, er fremdeles uklart.

Det som derimot synes ganske tydelig, er at selve ideen explaain bygger på, en journalistikk som blir bedre, større, sterkere jo mer den publiserer, ideen som strukturert journalistikk eller databasejournalistikk, er altfor god til at den forblir et konsept for nedlagte startup-bedrifter. Om explaain.com er aktøren som knekker nøtta, og finner den rette modellen for hvordan denne ideen kan få et publikum og en bedriftskultur rundt seg, gjenstår å se. I mellomtiden får vi bare vri hjernene våre etter måter dette lar seg gjøre på, for tiden når aviser ikke lenger er morgendagens innpakningspapir for fisk kommer snarere enn vi har trodd. La oss håpe ideen om strukturert journalistikk kan sikre at journalistikkens korttidsminne overtas av et redaksjonelt kollektivt minne før vi alle trenger et læringskort for å slå opp hva papiravis er.

]]>
Hvorfor utdanner vi journalister som ikke kan programmere? https://voxpublica.no/2015/08/hvorfor-utdanner-vi-journalister-som-ikke-kan-programmere/ Mon, 17 Aug 2015 08:36:28 +0000 https://voxpublica.no/?p=14888 “Data, kode og programmering må på pensum”, skriver VGs digitalredaktør Ola Stenberg på Medier24 (og på bloggen sin). Han påpeker at vi opererer i et medielandskap der det er et tydelig skille mellom teknologiaktørene og journalister, og at det er på tide å skape sanne journalist-teknolog-hybrider som lager journalistikk med solid forståelse for hvordan og hvorfor teknologien deltar i samfunnet og livet vårt.

Folka som Stenberg etterspør, og deres kompetanse, vet vi en hel del om, og vi formidler også kunnskapen ut. Dette er folk vi kaller datajournalister (muligens midlertidig – distinksjonen forsvinner kanskje med tiden?). Det er en tydelig trend at det er denne typen folk redaksjonene ønsker seg (f.eks. søkte Aftenposten etter “digitale hoder” og NRK “digitale historiefortellere”, osv). Folk som både “har journalistisk teft” og teknisk innsikt nok til faktisk å lage digitale produkter selv. Det var deres virke og deres posisjons potensial jeg skreiv min avhandling om.

Gjennom årene som stipendiat konkluderte jeg med det samme som Stenberg: ekspertkunnskap innen datateknologi er en kjempefordel for journalister, og uunnværlig for neste generasjons gravende journalistteam. Dette er en naturlig konsekvens av at samfunnets infrastruktur digitaliseres. Hvis vi ønsker at noen skal se den etter i sømmene, holder det ikke med folk som kan bruke teknologi, lese av målinger og loggføringer, men folk som kan kritisk analysere den selv. Når datamengdene blir store, er kode og programmering enkelt og greit eneste framgangsmåten som muliggjør dette. Det er den “viktige” journalistikken. Men også i den “gøye” journalistikken trenger vi disse folka: det er de samme ferdighetene som skal til for å lage interaktive visualiseringer, kartløsninger, applikasjoner som lar deg sammenlikne forholdene der du bor mot andre steder, osv – en blanding av teknisk ferdighet og nysgjerrig kritisk blikk med en dash sans for spennende brukeropplevelser. Se f.eks. på vinnerne av årets NODA-priser. Ting går i riktig retning.

Prosjektet #sporet fra Berlingske gjør omfattende bruk av dataanalyse og var en av vinnerne av NODA-pris 2015. (skjermbilde fra b.dk)

Prosjektet #sporet fra Berlingske gjør omfattende bruk av dataanalyse og var en av vinnerne av NODA-pris 2015. (skjermbilde fra b.dk)

Men det var jo også sant at “data, kode og programmering” var en innlysende vei framover for journalistikken for 10 år siden (2005). Og observert av en av datajournalistikkens pionerer, Philip Meyer – som anbefalte journalister å lære seg å programmere i 1973, i førsteutgaven av boka Precision Journalism, som jeg selv anser som en klassiker. Det finnes eldre eksempler, men folk som gikk journalistikkhøyskolen i 1973 er dagens førtidspensjonister og “digitaliseringen av samfunnet” som konsept var ennå ikke funnet på.

Avslutningsvis kommer jeg til å gi et kvalifisert blikk inn i neste generasjons journalistikkutdanning ved Universitetet i Bergen, men før det ønsker jeg å tygge litt på, og spekulere litt i, hvorfor vi i dag snakker om “digital kompetanse” som etter-utdanning for journalister. Hvorfor har ikke mediehusene ansatt, utdanningsstedene utdannet og journalister og studenter lært seg dette?

Første tanke — samfunnet reproduserer seg selv

Mediehusene har tradisjonelt ansatt samfunnsvitere og humanister — fra hvit middelklasse – som igjen ansetter folk som likner på seg selv (se Jan Fredrik Hovden for mer presis forskning på journalistikk og kultursosiologi). Dette er et menneskelig trekk som må jobbes med (det er et flott kapittel om hvordan Google aktivt og bevisst motarbeider dette i “How Google Works”, anbefales!).

Utdanningsstedene består av mennesker som forsker på journalistikk eller av tidligere praktiserende som går inn som lærere for neste generasjon. Det som er viktig for dem, er å levere fremragende forskning på feltet, og/eller å undervise i den journalistikk-kunnskapen som gjorde at de fikk en plass på et universitet eller høyskole. Utskiftningen av fast ansatte på universiteter og høyskoler er lav, folk trives og blir lenge (se f.eks. dette innlegget i debatten).

Også studenter arver ideer, og ferske studenter har ikke det samme bildet i hodet av en journalist som tekno-journalistikk-nerder som Stenberg og meg, de har sine tanker og idealer for journalistikken som var.

Ingen av disse tingene taler for raske endringer.

Når folk kvoteres inn et sted, er det for å veie opp for slike effekter, og få en mer representativ eller balansert sammensetning. Hva med å kvotere på fagkunnskap i nyhetsredaksjoner? Maks N hum/sam-ere pr realist? Eller operere med en journalist-til-programmerer-ratio?

Andre tanke – er nyhetsredaksjoner et sted der den teknisk flinke trives best på jobben?

I digitaliseringen av nyhetsredaksjonene har teknologi vært sett på som en trussel, og det har tidvis skapt arbeidsmiljø der tekniske ferdigheter ikke har gitt noen spesiell status som journalistisk metode.

Da jeg leste meg gjennom litteraturen på teknologi og journalistikk, var dette noe jeg irriterte meg over personlig: den journalistiske kulturen har tidvis vært direkte fiendtlig mot de folka den trengte så sårt. Dette tok jeg selvsagt med meg inn igjen i redaksjonene på turné i norske redaksjoner sammen med Joakim Karlsen, og fikk til svar at den tiden i hovedsak er over. Heldigvis.

Det er også et faktum at det ikke har vært nødvendig med tekniske fag eller realfag for å få jobb i en nyhetsredaksjon. Disse fagene har typisk høye opptakskrav, og ansees som vanskelige (og dessverre ok å ikke kunne). Journalistikkutdanning er også vanskelig å komme inn på, men har ikke realfag eller tekniske fag som inntakskriterier (som er fundamentet for “data, kode og programmering”) – fram til nå. Hvorfor stresse med matte når du kan chille med latte?

En teknolog-type har typisk kunnet heve høyere lønn andre steder enn i en nyhetsredaksjon. Jeg vet ikke hva en teknologisk orientert journalist tjener, men jeg håper han (for det er svært få damer som gjør dette i Norge) i dag er kompensert på en slik måte at redaksjonene kan holde på og bygge en solid kultur rundt den teknologiske kompetansen de har.

Enda en trend som har vært skadelig, er outsourcing og sentralisering. Jeg snakker nå om outsourcing av tekniske tjenester i redaksjonene. Teknisk drift i norske redaksjoner ble for bare noen år siden både outsourcet og sentralisert. Dette var med på å skape et tydelig skille mellom teknologer og journalister, som ikke lenger delte kantine eller møttes ved samme kopimaskin. Det har helt sikkert sett lurt ut på strategimøter over et Excel-ark, men det sikret samtidig at veien til teknisk kompetanse ble enda litt lenger i redaksjonene. Noen av de aller mest spennende data-jobbene (med enorme muligheter for datajournalistikk) i Norge må da være hos Schibsteds finn.no, og ikke i Schibsteds Aftenblad? Her har noe viktig gått i journalistikkens disfavør.

Tredje tanke – datajournalister er helt annerledes enn journalist-generalister

Datajournalistikken representerer en spesialisering, hvor journalistutdanningene så langt har utdannet generalister. En journalist skal både kunne gjøre research, intervjue, filme, klippe, fotografere, skrive, osv. Dette er den forrige stereotypen for journalistikkstudiene – det var dette redaksjonene pleide å ønske seg. Det er også en del variasjon i bransjen om hva man ønsker at en journalist skal lære gjennom høyere utdanning, utover at de skal være “komplette” og “selvgående”.

Det er ikke slik at alle journalister nå skal programmere, men redaksjonene er allerede fulle av folk som ikke gjør det – så Stenberg må få rett i at de som skal inn burde kunne det. Vi kan kanskje si at vi er på vei bort fra generalisten, og at også journalistikken blir langt mer spesialisert?

Veien videre

Ola Stenberg skriver:

Hvis ikke utdanningene tar grep nå vil de uteksaminere kandidater som ikke er gjeldende. Det vil blant dem være et skille mellom journalistikk og teknologi, og ingen som har et slikt skille vil overleve i den digitale fremtiden. Da ender vi opp med at mediehusene ansetter helt andre folk.

Utdanningene tar grep. Jeg vet ikke hva de tradisjonelle journalistikkprogrammene gjør, og kan kun snakke for det miljøet jeg tilhører. De grepene som gjøres er å legge om journalistikkutdanningen i en mer moderne retning. Dette betyr mer workshops foran kollokvier og auditorium-undervisning. Det betyr større moduler som består av små enkelt utbyttbare workshops, tema-pakker og prosjektoppgaver som gjør at det er enklere å få inn pensum og kunnskap som endrer seg raskt. Det betyr også at “data, kode og programmering” kommer på pensum, men at det gjøres i kontekst av en journalistikkutdanning på journalistikkens premisser, og ikke blir en informatikkutdanning. Dette er noe vi, som et sammenslått institutt mellom mediefag og informasjonsvitenskap, har svært gode forutsetninger for – og konkrete planer om å sette i verk i Media City Bergen.

Samfunnet trenger ikke bare å utdanne journalister som kan kode. Vi trenger å utdanne nysgjerrige, kritiske og reflekterte journalister. Journalister som også er selv-kritiske, og ser at journalister med teknologibakgrunn er underrepresentert i redaksjonene og at bransjen nok også burde rekruttere fra andre utdanninger enn bare journalistikk. Dermed får Stenberg rett to ganger i samme sitat: (1) at journalister bør utdannes til å hanskes kritisk med teknologi uten alltid å være avhengig av en ekstern ekspert, og (2) at mediehusene også burde ansette helt andre folk for å sikre et mer diversifisert og kvalifisert blikk på samfunnet og pressens rolle i det.

Det ligger mange utfordringer foran oss, og vi har en skjev ballast, men for en digital nysgjerrigper i en nyhetsredaksjon har forutsetningene neppe noen gang vært bedre — og dem kommer det flere av.

]]>
Ny bok: datastøttet journalistikk https://voxpublica.no/2013/05/ny-bok-datastottet-journalistikk/ Tue, 21 May 2013 05:46:53 +0000 https://voxpublica.no/?p=10671 NRKs datajournalistguru Espen Andersen gav nylig ut boken Datastøttet journalistikk på IJ/Cappelen Damm med støtte fra pressens faglitteraturfond. Boken tilbyr 200 sider lettlest stoff om databruk i norske redaksjoner mellom to myke permer. Andersen er inkluderende og skremmer formodentlig ikke bort sine lesere med kompliserte formler og avansert notasjon, slik an del teknologibøker kan gjøre. Boken passer fint for pressefolk i arbeid, så vel som medier og kommunikasjon-studenter og lavere grads universitets- og høyskolestudenter. Det er en introduksjonsbok, og den forventer ikke at du kan noe om databehandling fra før. Andersen forklarer teknologiske begrep og viser fram metoder og teknologier, men slipper aldri målet ut av synet: de gode historiene i datasamlingene.

Martin Eide skriver i bloggposten om boken Hva er journalistikk at:

Det mangler begrunnete forslag til en journalistisk kanon. Det syvende bud er dette: Du skal velge dine forbilder med omhu. Et godt forbilde er et fyrtårn, ikke en havn.

Innledningsvis er det omrisset av just dette Andersen tegner, caser å strekke seg etter — caser som har strukket journalistikken, ved bruk av teknologi. Slik guides vi trygt og kyndig inn i stoffet med et håp om engang å avdekke og avsløre med hjelp av datajournalistikk.

Espen Andersen - datastøttet journalistikk

Espen Andersen — Datastøttet journalistikk

Ingenting i boken står uten kontekst. Når vi lærer om normalisering av databaser og maskinlesbare formater er det fordi vi skal lære hvordan man finner de beste skolene eller branner i verneverdige hus. Casene driver boken framover. Det er ikke bare teknikker og resultater, det er spennende historier og eksempler som viser hvorfor programmering som journalistisk metode har gullalderen foran seg.

Som skoleverk inneholder boken mer enn kun “slik gjør du det”-stoff, men går også gjennom temaer som etikk, offentlighetsloven og problemstillinger rundt tilgang og avslag på innsynsbegjæringer. Journalistikk er både teknisk og sosialt, og prosessen slik den forklares tar høyde for både mennesker og maskiner.

I bokens innledning leser vi at Andersen heller vil gå rett på sak og ikke forenkle, for så å forvente at de som føler for det heller googler seg fram til mer kunnskap underveis. De bitene vi ikke trenger å google er lettfattelig tilgjengelig, og viser de overordnede linjene. Som med datajournalistikkhåndboken spares det på de aller mest tekniske detaljene. Dette har Andersen løst ved å legge til avanserte temaer mot slutten av boken. Der lærer vi om datatyper, å skrive en skjermskraper og å “intervjue” et datasett med SQL. To helt sentrale metoder som kan brukes i utallige prosjekter og fagområder.

Det finnes ingen konkurrenter til denne boken akkurat nå. Både Digital sporhund av de Lange Kofoed & Selmer-Nedrelid og Vagthund i vidensamfundet av Mulvad, Swithun og Svith er utdaterte. Denne typen bøker har kort levetid, men i de kommende årene antar jeg denne vil være å finne i mange skolesekker og pressebagger i Norge. Dette er datajournalistikk i 2013, men nok også noen år inn i framtiden.

Selv om Andersen har mange caser å vise til, og lærer oss noe viktig ved hver eneste én, så er boken plutselig slutt. En teknolog leser denne boken på få timer. Forhåpentligvis vil journalister og studenter kose seg med den lenger og grave dypere i metoder og muligheter – for her blir vi presentert for framtidens gravende journalists levebrød.

]]>
Samstemmer: forskningsmetode ble prisvinner https://voxpublica.no/2013/05/samstemmer-forskningsmetode-ble-prisvinner/ Thu, 16 May 2013 07:02:04 +0000 https://voxpublica.no/?p=10664 Samstemmer.net vant førstepremie i kategorien for apper laget av enkeltpersoner i DIFI og IKT-Norges konkurranse apps4norge. Samstemmer startet her på Vox Publica. For omtrent et år siden undret jeg “Stortingsdataene er her! Hva nå?”. I kommentarfeltet kom det fram at Edda Media (som tidligere hadde laget en spennende, men kortlivd tjeneste i Buskerudbenken for Drammens Tidende) ikke kom til å gjøre noe, men at de likevel så nytteverdi i datasettet.

Skal du ha noe gjort så må du gjøre det selv, heter det. Som sagt, så gjort — koden som jeg delte i fjor (som kun henter data) ble videreutviklet og automatisert. Mitt mål er å finne ut hvordan et dashbord for journalister bygget på denne typen data bør se ut. Å forske på denne måten heter design science – iterativ design som forskningsmetode – som er vanlig i informasjonsvitenskap, og er en morsom måte å jobbe på. For å få dialogen i gang med stortingsreportere laget jeg noen eksempler på ting vi kan gjøre. Vi kan finne “outliers”, som de som stiller flest eller færrest spørsmål, eller bruker det mest avanserte språket i spørsmålene sine. Vi kan lage nettverk av spørsmål, eller hvor likt representantene stemmer. Ved bruk av kvantitative metoder fra statsvitenskapen kan vi også regne ut hvem som er “lengst til høyre i høyre” eller “venstre i venstre” og visualisere resultatet. Blant annet. Samstemmer.net har mer.

Samstemmer.net er basert på data fra Stor­tin­gets data­tje­neste, som var et hyg­ge­lig bekjent­skap å gjøre i utvik­lings­fa­sen. Å få denne mel­din­gen fra twit­ter var gøy!

Samstemmer.net er basert på data fra Stor­tin­gets data­tje­neste, som var et hyg­ge­lig bekjent­skap å gjøre i utvik­lings­fa­sen. Å få denne mel­din­gen fra twit­ter var gøy!

Enkelte av tingene jeg gjør er direkte urimelig, som å rangere Stortinget etter lesbarhet (med LIX) og å peke ut representantene som “aldri” dukker opp for å votere. Dette er gjort for å vise fram data fra APIet og å sette i gang diskusjonen med ekspertene — stortingsreporterne. Det er deres kunnskap og erfaring jeg ønsker å forstå for å finne ut hvordan et informasjonssystem som dette bør se ut og oppføre seg for å støttes deres rolle. Men hva er viktig? Hva er nyttig?

Veien videre nå er å analysere intervjuene med norske stortingsreportere og samle kunnskapen derfra. Dette vil bli delt sammen med koden på Github Den som ønsker å hjelpe meg å videreutvikle Samstemmer er hjertelig velkommen. Koden er skrevet i python med hjelp av django, og bruker d3js til de fleste grafer og visualiseringer.

Prototyper på informasjonssystemer laget av studenter pleier normalt ikke å få oppmerksomhet. Det er klassen og sensor, stort sett, som får sett og prøvd dem. I Apps4Norge-konkurransen var det flere skoleoppgaver som deltok, og vi får håpe det blir flere slike nasjonale konkurranser og sørge for at studentmiljøene får dette med seg – det er veldig hyggelig at flere får innsyn i hva vi driver med i universitetsmiljøet.

]]>
Digital kompetanse for journalister https://voxpublica.no/2012/09/digital-kompetanse-for-journalister/ https://voxpublica.no/2012/09/digital-kompetanse-for-journalister/#comments Fri, 21 Sep 2012 12:05:25 +0000 https://voxpublica.no/?p=9088 På dagens frokostmøte med MediArena var temaet “Vinn eller forsvinn: Digital kompetanse”.
Jeg var invitert som innleder (blant flere) og holdt en kort presentasjon om hva en datajournalist bør kunne. Avslutningsvis holdt vi en paneldebatt med spørsmål fra salen, helt til sist kom et spørsmål fra en journaliststudent:

vi vil lære og vi er nysgjerrige, men hva må vi kunne nå som vi ikke måtte før?

Det spørsmålet fikk ikke den oppmerksomheten det fortjener, for det er et godt spørsmål (og jeg fikk ikke svare på det), så her forsøker jeg å gi et svar.

Råmateriale til fakta er data. For å komme fra data til informasjon må data tolkes. Fakta er dokumentert informasjon, informasjon med sannhetsgehalt. Så langt er ingenting nytt under solen. Ingenting her trenger å være digitalt.

Men så viser det seg at data i dagens samfunn ofte er digitale. Årsaken til dette er mange, men ofte fordi noen egenskaper ved digitale medier er svært fordelaktige for å effektivisere, måle og avhjelpe (saksbehandlings-)prosesser. En del prosesser i digitale medier kan automatiseres ved hjelp av dataprogrammer, og å ha “rett informasjon til rett tid” kan bli lettere. At vi går fra et analogt til et digitalt informasjonssamfunn kalles digitalisering, og betyr at databaselogikk og automatiserbare prosesser favoriseres. Alt materiale kan søkes i og publiseres på nett, det er fint. Resultatet er at dataene som skapes i samfunnet er digitale, med noen iboende digitale egenskaper*. Å kunne utnytte dette er digital kompetanse.

Noe er nytt, mye er det samme. Dataene er nesten utelukkende digitale.

I informasjonsvitenskapen snakker vi om “sense-making”, prosessen å gi mening til erfaringer. Lettere sagt; det å gjøre noe forståelig. Det er også en av hovedfunksjonene til journalistikken – å gi oss relevant informasjon om omverden i et format vi kan forstå. Fra mitt perspektiv er pressen (++) den sentrale aktøren i informasjonsbransjen, og en av journalistikkens hovedfunksjoner er å bekjempe informasjonsasymmetri. Dette sikrer harde nyheter, ’nyheter som noen ikke vil at du skal publisere’ (Arthur McEwen) eller ’som vil ha materiell innflytelse på folks liv’ (Franklin et al). Ikke all journalistikk oppnår dette, men at en passe andel journalistikk gjør det sikrer medieinstitusjonenes plass og dominans i informasjonsbransjen. Vi vet hvem vi kan gå til for å få den typen informasjon. Sense-making og informasjonsasymmetri fantes før datamaskinene, og tilhører i teorien verken det digitale eller analoge.

I praksis sitter vi med digitale data om verden, og vi skal tolke dette til informasjon og formidle det videre til et forestilt publikum av “vanlige folk”. Den prosessen, gitt digitale data, kan utnytte egenskapene ved digitale medier. Sammenlikninger, rangeringer, grupperinger, målinger av ulike slag kan gjøres i større skala, raskere, med datamaskiner. Analyser (nettverksanalyse, regresjonsanalyse, innholdsanalyse, frekvensanalyse, osv) kan gå raskere med hjelp av digitale verktøy (bare å tegne en graf over noen få hundre noder er nesten uoverkommelig på papir, men en smal sak med riktige digitale verktøy**). Ved å forstå teoriene bak slike analyseverktøy er det lettere å finne riktig verktøy til riktig data og story.

Disse analysene jeg betegner her likner på forskning. Det betyr ikke at jeg mener at journalistikk og forskning er det samme. Forskningen har de samme store mulighetene med datastøttede metoder, men det stilles helt andre krav til disse to gruppene. For forskningens del handler det om å utforske ny grunn, benytte større datasett og å kvalitetssikre metoder ved å kunne repetere og justere dem oftere. For journalistikken handler det om å gjøre seg mindre avhengige av “eksperter”. Eksperter er både en velsignelse og en forbannelse for journalistikken, men ved å ha gjort noen små analyser på kontoret før et intervju kan journalisten stille bedre spørsmål og kreve bedre forklaringer av eksperter eller andre maktpersoner. Det er fint å leve i et samfunn der vi kan ta hverandre på ordet, men det er også fint at noen faktasjekker. Slike små analyser er faktasjekking eller rett og slett produksjon av fakta, som kan kommenteres eller bestrides av eksperter og ansvarlige.

Eksempel: Hva med å slå sammen noen kommuner, dere?

Vi har 429 kommuner i Norge etter at Inderøy og Mosvik i Nord-Trøndelag slo seg sammen. Hvorvidt det er en god idé å ha færre kommuner er et politisk tema som splitter partiene, tidvis også innad i partiene. Dette er med andre ord et godt tema for pressen å diskutere. Tidligere i år gjorde analysefirmaet NyAnalyse sammen med Geodata en analyse av kjøreavstand mellom kommunesentre (rådhus), for å se hvor tett administrasjonene for alle disse kommunene ligger. Metoden finner du her på Helge Astads blogg.

- Kunne en journalist ha gjort dette? Er dette en for tidkrevende og teknisk oppgave til å være journalistikk?
Første gang, kanskje. Ikke?

Men nå vet vi hvordan det ble gjort for rådhus, hva med avstanden mellom fengsler og barnehager, eller avfallsstasjoner og ball-løkker, høyspentmaster og turistattraksjoner? Når vi vet hvordan en slik analyse gjøres, og svakhetene med en slik analyse (Astad fra Geodata kommenterer forbilledlig dette) – så kan dette gjøres raskere og raskere for hver gang. Verktøyene og prosessene blir raskere og bedre og journalisten får spørsmål som kan lede til gode saker.

Analysen over gir et argument for hvilke kommuner som kanskje kan diskutere sammenslåing (uansett om man mener det er en god idé eller ikke). Analysen hadde vært mulig å gjøre før datamaskinen, men det hadde involvert mye bilkjøring, tidtaking, beregninger, administrasjon og tålmodighet. At dataene er digitale tillater datastøttede analyser, som går mye fortere enn en pre-digital analyse. At VG kjørte saken på forsiden av papirutgaven bør være et tegn på at dette er bra stoff.

Ting en må kunne

Kommunesammenslåing er en case der en datastøttet analyse ble brukt. Jeg mener dette er underutnyttet i norsk presse, og det journalister bør kunne i dag som de ikke trengte før, er hvordan datastøtte kan gjøre denne typen mindre analyser så små og raske at de fortsatt kan levere på deadline. Digital kompetanse i denne sammenhengen handler altså om å la digitale verktøy senke terskelen for å ta i bruk metoder som kan hjelpe oss å konvertere data til samfunnsnyttig informasjon. Metodene er ofte “vanskelige”. De må læres. Hvis overnevnte Astad ikke visste hva han drev med, så kunne dette gått veldig galt. Men når metoden er forstått kan dataverktøy senke tidskravet til slike analyser og da snakker vi om å utnytte noen av egenskapene ved digitale data. Vi kaller det “Computational thinking” – å forstå hva som kan beregnes i en datamaskin og utnytte dette i problemløsning.

PS: Til journaliststudenten som stilte spørsmålet. Godt spørsmål. Jeg stilte det samme spørsmålet du kom med, dog indirekte, i en intervjustudie som ikke er publisert ennå. De mest teknisk avanserte journalistene (de som lager bl.a. nyhetsapplikasjoner) svarer blant annet:

  • Lær excel,
  • databaseteori (å kunne hente ut data fra en database i SQL er gull verdt for disse),
  • Scripting (å kunne loope gjennom millioner av ulykker fra Vegvesenet, dokumenter fra Wikileaks eller skattebetalere i skattelistene for å lage statistikk åpner for spennende journalistikk). Eksempler på språk er python, php, ruby eller c++. (Jeg anbefaler python hvis du er ny, det er lett å lære og finnes på nesten alle datamaskiner).

Jeg vil legge til to egenskaper etter eget verdensbilde, og et verktøy:

  • Samarbeid på tvers av spesialområde. Å forstå hvordan designere, programmerere, økonomi-journalister, programledere, statistikere, osv. jobber er et fortrinn. Å forstå hva som er viktig for de ulike nisjene kan du utnytte til å bli en bra samarbeidspartner, og alle liker gode samarbeidspartnere. Finn venner også utenfor egen avdeling.
  • Bli en primus motor. Hvis du kan levere et arbeide uten at noen (les: sjefen) trenger å bekymre seg for hvordan det går, men vet at du ikke stanger hodet i veggen aleine i et kott, så er du en — slik jeg blir fortalt — redaktørene ønsker seg.

Dette er ikke digital kompetanse, men menneske-kompetanse. Den bør aldri undervurderes. Så et verktøy: lær Google refine. Det er Excel på steroider, og på tross av at jeg argumenterer for at verktøy kommer og går mens metodene består, så er dette mitt beste forslag til et verktøy som både er tilgjengelig, nyttig og har potensial til å gi stories i hopetall. Å lære framtidens variant av slike verktøy blir lettere hvis du kan noe liknende i dag.

* Se for eksempel Lev Manovichs fem prinsipper for digitale medier i The language of new media.
** Vi har fått et nytt fag på instituttet som ser på de teoretiske aspektene av bl.a. slike grafer: info207. Kan vi bruke slik teori til å finne inhabile parter, maktsentre eller korrupsjon? Helt klart.

]]>
https://voxpublica.no/2012/09/digital-kompetanse-for-journalister/feed/ 1
Svensker med pejl på datajournalistikk https://voxpublica.no/2012/09/svensker-med-pejl-pa-datajournalistikk/ Thu, 06 Sep 2012 13:39:13 +0000 https://voxpublica.no/?p=8987 Da det tidligere i år ble kåret vinnere av den første internasjonale datajournalistikkprisen, ble det tydelig for juryen at datajournalistikk er en journalistisk subkultur som ikke begrenser seg til Nord-Amerika og Vest-Europa, og heller ikke bare til de store redaksjonene. Selv om ingen skandinaviske prosjekter stakk av med noen priser under datajournalism awards 2012, så betyr ikke det at det ikke skjer ting her. I Sverige f.eks. er det mye spennende på gang.

Først må jeg få lenke til den finlandssvenske ildsjelen Jens Finnäs, som i kjølvannet av nettpubliseringen sin framstår som en riktig enmanns-armé. På datajournalistik.se har han samlet et knippe teknikker, ressurser og verktøy, og samlingen er imponerende. Dette er snacks for den lærevillige så vel som for den som bare vil ha eksempler på hva som kan gjøres. Et eksempel fra Finnäs’ spalte for “inspirasjon” er denne crowdsource-appen fra SvD Næringsliv, det svenske rente-kartet, som viser hva våre brødre mot øst betaler for sine lån. Slett ikke irrelevant for dagens norske boligrente-problematikk. Muligens også et forhandlingskort for svenske låntagere?

Finnäs har også en blogg på engelsk med tittelen dataist, som både viser eksempler på hvordan andre gjør det, men særlig hvordan Finnäs selv løser praktiske problemer i sin datajournalistikk. Eksempler fra bloggen er en post om datavask i refine (det har vi også skrevet om før), erfaringer om hvordan han brukte “musklene” i d3.js og kombinerte det med Raphaël.js noe bedre nettleser-støtte (her) og instruksjoner om hvordan du “pimper” Google maps i ny fargedrakt. Imponerende arbeid.

SVT “Pejl” — eksempel til etterfølgelse

Å si at databasredaktör Helena Bengtssons datajournalistikk-prosjekt “SVT Pejl” er en blåkopi av the Guardians Datablog er urettferdig. Hun har bare lånt ideen, og lokalisert den til SVTs omgivelser. De har laget en video der prosjektet introduseres:

Flere detaljer kan du lese her, hvor det svenske begrepet databasejournalistikk også diskuteres og brukes som et synonym til computer-assisted reporting (CAR). Helena Bengtsson får tydelig vist at SVT henger med i svingene.

Et eksempel fra SVT Pejl er denne grafen over skoleresultater, som understreker at barnas skoleresultater har en hel del å gjøre med hvem de er barn av. Unikt er dette ikke (den likner f.eks. litt på denne fra NYT i kjent Amanda Cox-stil, arbeidsledighet blant folk som deg), men det er lokalisert, aktuelt og reelle data. SVT ser videre ut til å følge opp med stilen der metoder diskuteres grundigere enn i tradisjonell journalistikk, et fenomen som som både nye prosjekter og gamle travere tidvis glimter til med. At svenskene leder dette an i Skandinavia, lover godt. (Se f.eks. metodeforklaring bak skole-prosjektet skolpejl her).

Videre har SVT Pejl hevet seg over både politiets data “Brottspejl”, skoler “Skolpejl” og tilbyr angrepsvinkler via geografisk område i disse dataene. For en nasjonal rikskringkaster virker dette fornuftig. I tillegg inneholder bloggen prosjekter som de løpende arbeider med internt i SVT-systemet.

Ser vi for oss at NRK følger i SVTs fotspor, mon tro?

]]>