Fakta først - Vox Publica https://voxpublica.no/seksjon/blogger/fakta-foerst/ Magasin om demokrati og ytringsfrihet Tue, 20 Nov 2018 09:27:06 +0000 nb-NO hourly 1 TV-historien flimrer på en nettspiller nær deg https://voxpublica.no/2018/11/tv-historien-flimrer-pa-en-nettspiller-naer-deg/ Tue, 20 Nov 2018 07:56:47 +0000 https://voxpublica.no/?p=20032 NRK har produsert radio siden 1933 og fjernsyn siden 1960. Det blir det en del programmer av. NRK-arkivet arbeider aktivt for å formidle det historiske materialet, blant annet ved å gjøre det relevant i nye, aktuelle sammenhenger. Anne Kirsten Bakke fortalte om disse initiativene i en egen artikkel i Vox Publica før i år.

Vi var interessert i flere detaljer om hvordan stadig større deler av fjernsynshistorien gjøres tilgjengelig (radiohistorien har vi skrevet om før), og har stilt Bakke noen spørsmål om teknikk, rettigheter og formidling.

Vox Publica: Hva er tilgjengelig for publikum nå av historiske TV-programmer i NRKs nettspiller (NRK TV)?

Anne Kirsten Bakke: – Når det gjelder TV-arkivet, så har vi publisert nesten alt sammen. Det vil si alle fjernsynsprogrammer produsert av NRK før 1997 som er dekket av avtalen med Norwaco (paraplyorganisasjon for rettighetshavere). Unntakene er sport og nyheter, materiale som har tekniske eller etiske problemstillinger knyttet til seg og slettede programmer. I tillegg har vi publisert en god del programmer fra perioden 1997–2011 hvor rettighetene er klarert, og hele Filmavisen (1941–1963).

Skjermbilde fra NRK TV, Filmavisen.

Det vil si at vi har publisert ca. 33000 programmer/episoder fra perioden før 1997, og ca. 2–3000 fra perioden 1997–2011. Her finner du alt fra Trim for eldre, Skolefjernsyn, Fjernsynskjøkkenet med Ingrid Espelid Hovig og underholdning med Erik Bye til Kvitt eller dobbelt og Ta sjansen. Vi har barne-TV, dokumentarer, musikkprogram, konserter og samfunnsaktuelle program. Her finner du U, LørDan, Halv-sju, Midt i Smørøyet og Pelle Parafins bøljeband – bare for å nevne noen. Ta gjerne en titt i NRK TV sin arkivkategori, som er en ganske stor godtepose!

Vi kuraterer innholdet aktivt på Arkiv-kategorien. Her aktualiserer og tematiserer vi vårt stoff, og lager “etasjer” med mye innhold.

Arkivsiden i NRK TV kurateres med aktuelt og tematisk organisert innhold.

For oss spesielt interesserte – hva med tilleggsinformasjon om programmene, som dato for sending, navn på medvirkende osv.?

– Da vi publiserte programmene til NRK TV, valgte vi også å publisere NRKs interne arkivbeskrivelse av programmene. Den ble laget samtidig med programmene, og er skrevet for at NRKs arkivarer, journalister og fotografer skal kunne finne igjen stoff i arkivet. Arkivbeskrivelsen ble aldri skrevet for publisering, og inneholder mye internt fagspråk om kameravinkler og produksjonsmåte. Tekstene gir likevel i de fleste tilfeller stor merverdi for de som ønsker å bruke arkivinnholdet i NRK TV, og vi har derfor valgt å publisere teksten.

Det er viktig å si at arkivbeskrivelsen ble skrevet samtidig som programmene ble produsert. Den kan derfor inneholde ord og begreper som var vanlig tidligere, men som i dag anses som støtende eller upassende (f.eks. «neger»). Arkivbeskrivelsen er dessverre ikke søkbar i NRK TV, men vises hvis du klikker på lenken Vis mer.

Per nå jobber vi med å indeksere og publisere historiske nyhetssendinger, først og fremst Dagsrevyen. Vi har samarbeidet med Høgskolen i Volda hvor mediestudenter ønsket tilgang til materiale om Berlinmurens fall, og da publiserte vi Dagsrevyen fra 1.–15. november 1989 slik at den er tilgjengelig for alle i NRK TV.

Hull i muren. Per Ståle Lønning introduserer Dagsrevyen 10. november 1989. (skjermbilde fra NRK TV)

Så flere historiske nyhetssendinger er på vei. Men hva med sport? Og støter dere på noen spesielle utfordringer med teknikk eller rettigheter?

– Når det gjelder nyheter, så går digitaliseringen stort sett greit. Dette innholdet har mye metadata, og det finnes gjerne både som innslag og hele sendinger (sistnevnte er det vi digitaliserer nå). Utfordringen er manglende grafikk og teksting på nyhetsbåndene, det er også derfor vi har valgt å publisere filene fra dokumentasjonskassettene; litt dårligere kvalitet, men altså med grafikk og teksting. En annen utfordring er at flere av sendingene som ligger på nyhetsbåndene er kuttet midt i værmeldingen. Det er synd, men vi legger dem likevel ut, med det av værmeldingen som er tilgjengelig. Dette er jo også et bilde på tiden.

Vi har som nevnt begynt å publisere Dagsrevyen, og alle sendinger fra og med 2009 og fram til i dag ligger tilgjengelige med indekspunkter for hvert innslag. Det jobbes med å digitalisere, kvalitetssikre, metadataføre og til sist publisere hele serien – men dette vil ta litt tid.

Med sport er rettigheter et problem, men ikke så vanskelig som vi kanskje har sett for oss. Vi har på grunn av dette publisert veldig lite sport, men har akkurat gått inn i et samarbeid med Sporten hvor de sjekker rettigheter og vi publiserer. Vi begynner med landskamper i fotball spilt på hjemmebane og jobber oss fra starten og fremover i tid. Etter dette vil vi begynne å se på ukentlige sportssendinger.

De sportssendingene hvor rettighetene er klarerte skal altså også publiseres etter hvert. Perioden etter 1997 ønsker vi å utnytte bedre, men da er vi avhengig av nye rettighetsavtaler.

Hva slags programmer og materiale fra NRKs TV-historie er ikke tilgjengelig?

– Noe innhold ble sendt direkte og ikke tatt opp på bånd. Dette gjelder blant annet introduksjonene til Dagsrevyen fram til 1982. Her har vi bare selve innslagene. Og på 70- og 80-tallet ble det dessverre slettet en del innhold fordi sendebåndene var dyre og ble brukt om igjen. Det var opp til den enkelte redaksjon å avgjøre hvilke bånd som skulle brukes om igjen. Vi ser nå at vi mangler en del innhold om hverdagsliv.

Vi har også programmer vi har valgt å ikke publisere, både av tekniske grunner og fordi det har innhold av en slik karakter at vi ser det som problematisk å publisere dette i dag. Store mengder av innholdet vårt ble produsert i en tid da internett i den formen vi kjenner det i dag, ikke fantes. Da ble programmet sendt den dagen, og kanskje i reprise, men var siden ikke allment tilgjengelig.

I dag kan alle med tilgang til internett hente fram programmet, og for eksempel kopiere skjermbilder eller hente klipp ned på egen maskin og klippe om eller distribuere selv i andre kanaler, selv om dette er ulovlig.

I programmer med tilgjengelig metadata om medvirkende vil et raskt internettsøk gi tilgang til programmene, selv uten at seeren aktivt oppsøker NRK TV. Derfor har vi i flere sammenhenger valgt å ikke publisere programmer der man kan tenke seg at de medvirkende i programmet ikke ønsker å forbindes med grunnen til at de var med i programmet.

Vil historisk NRK-innhold bli å se på andre plattformer? Hva med å gjøre materialet tilgjengelig for utviklere via et API (programmeringsgrensesnitt)?

– Vi har tilgjengeliggjort Filmavisen og Fjernsynsteatret hos Europeana, men har foreløpig ingen konkrete planer om andre plattformer, eller via et API.

Andre videotjenester gir brukere muligheten til å bygge inn (embedde) videoer på egne sider, f.eks. i nyhetssaker eller blogginnlegg. Vil dere begynne å tilby det?

– Vi mangler en enkel teknisk løsning på dette, men du kan embedde programmer som ligger i NRK TV i dag. Det er litt kronglete, men du trenger programkoden og lenken, slik:

Hvis du skulle embedde Dagsrevyen ovenfor, erstatter du «135558» med «FNYH23001489». For å finne id, bruker du kildekoden på NRK TV.

Det er etter hvert mange rettighetshavere som gir innholdet sitt en Creative Commons-lisens. Det er jo også en måte å øke spredningen av innhold på – er dette noe dere vurderer?

– Det kan være interessant å se på muligheter for å gi materiale Creative Commons-lisens slik at andre kan republisere det og/eller remikse det, men i arkivet finnes det ingen konkrete planer for dette per i dag. Finske YLE tester ut dette.

]]>
Hva mener de politiske partiene om Wikipedia og åpne lisenser? https://voxpublica.no/2017/08/hva-mener-de-politiske-partiene-om-wikipedia-og-apne-lisenser/ Tue, 29 Aug 2017 10:57:01 +0000 https://voxpublica.no/?p=17709 Wikimedia Norge arbeider for fri kunnskap. Vi mener at jo mer informasjon som fritt kan gjenbrukes og bygges videre på, desto bedre samfunn får vi. Wikipedia har vist hvordan kunnskapsdeling kan fungere i praksis og wiki-prosjektene gir utallige delingsmuligheter for oss alle. Som fundament for dette ligger Creative Commons-lisensene. Wikimedia Norge ønsker at også lovgivningen i Norge skal tilpasse seg et mest mulig fritt kunnskapssamfunn.

Våren 2017 ble tilgangen til Wikipedia stengt i Tyrkia. Det er den fremdeles. Wikimedia Sverige ble i juli 2017 idømt en høy bot fordi de hadde lastet opp bilder av offentlig kunst til nettsiden offentligkonst.se. Vi opplever også at det er en kamp om fakta i samfunnet.

Dette viser at presset mot Wikipedia og de andre wiki-prosjektene øker. Opphavsretten i Norge er ikke blant de strengeste, men er heller ikke like fri som f.eks. Storbritannia, Tyskland, Canada og Australia, se denne artikkelen om panoramafrihet. Det er derfor interessant hva norske politikere tenker rundt kunnskapsformidling og ‑deling på Wikipedia og bruken av åpne lisenser.

Stortingsvalget nærmer seg, og vi har derfor stilt de norske politiske partiene tre spørsmål:

  1. Hvor fornøyd er dere med artiklene om deres parti og politikere på norsk Wikipedia?
  2. Hvor viktig eller uviktig mener deres parti det er at kunnskap er tilgjengelig på de norske språk?
  3. Er partiet enig eller uenig i at alle statlig finansierte kunnskaps- og kulturbaser skal legges ut under fri lisens dersom det er mulig?

Vi sendte spørsmålene til  Arbeiderpartiet (A), Fremskrittspartiet (Frp), Høyre (H), Kristelig Folkeparti (KrF), Miljøpartiet De Grønne (MDG), Rødt ®, Senterpartiet (Sp), Sosialistisk Venstreparti (SV), Venstre (V).

Alle partiene som ble spurt har sendt inn svar og under kan du lese hva de svarte.

Hvor fornøyd er partiene med artiklene om deres parti og politikere på norsk Wikipedia?

Ett av partiene, SV, er veldig fornøyd, seks av partiene er ganske fornøyd, mens Senterpartiet og FrP er lite fornøyde med artiklene om eget parti og egne politikere. Ingen av partiene skriver at de ikke er fornøyde.

FrP skriver at «Wikipedia lar udokumenterte påstander fra politiske motstandere ligge i artikkelen om FrP, samt stort fokus på negative episoder som er av mindre i den store sammenheng». MDG mener at «Partisiden bærer nok litt preg av å være skrevet av sympatisører, og har litt lite ny informasjon. Nyere politikere er generelt dårligere dekket». Rødt skriver at «Vi opplever at det tidvis er litt strenge kriterier for politikerbiografier, og at terskelen for å slette er litt vel lav». KrF skriver at «Sidene til partiet KrF og til de mest sentrale politikerne våre er ganske OK. Samtidig er det mange av KrFs øvrige politikere og listetopper som burde hatt sider eller mer utfyllende informasjon. Så med andre ord, de som har egne sider har stort sett relativt greie sider, men det er fortsatt for få av politikerne våre som har egne Wikipedia-sider».

Har dere selv bidratt med egne bilder eller tekst på artiklene om deres parti og politikere på norsk Wikipedia?

Seks av partiene har bidratt på egne sider, enten med tekst eller bilder. Fem partier har bidratt med egne bilder, mens to er usikre. Fem av partiene har bidratt med tekst, mens Arbeiderpartiet oppgir at «Direkte faktafeil av typen fødselsår, har vært rettet».


MDG Ap R SV Sp V H FrP KrF
Bilder J (1) J J N N J V V J
Tekst J (2) J V N J J V J

N = Nei,
V = Vet ikke.
(1) «Men bare i begrenset grad. Vi har en del bilder tilgjengelig under en kompatibel Creative Commons-lisens på Flickr som det bare er å forsyne seg av»
(2) Bare faktafeil rettet

Venstre skriver at «Wikipedia er en viktig kilde til informasjon, og et sted hvor mange velgere søker for å lære om partiene. Det er derfor viktig at man finner oppdatert informasjon der, samt en hel del om partiets politikk og historie».

MDG skriver at «Vi er varsomme med å aktivt redigere artikler om oss selv, men partisiden vår har flere bidragsytere som er partimedlemmer og har vært en del av ledelsen i partiet».

Senterpartiet skriver at «Vi ønsker å ta tak i vår egen Wikipedia-side og vil fortløpende vurdere hvordan vi best gjør det i løpet av sommeren».

KrF skriver at «KrF har i de siste årene bidratt litt med å oppdatere sidene om våre politikere og finne referanser for informasjonen der, men dette er noe vi kunne jobbe enda mer med i årene fremover».

Hvor viktig eller uviktig mener deres parti det er at kunnskap er tilgjengelig på de norske språk?

I Norge er Wikipedia det desidert mest leste leksikonet, men engelsk Wikipedia er like mye lest som Wikipedia på norske språk, i motsetning til i land som Sverige og Tyskland, hvor den nasjonale Wikipedia er mest populær. Partiene ble spurt om språkene og målformene bokmål, nynorsk og nordsamisk, som samsvarer med Wikipedia-variantene Wikimedia Norge arbeider for å støtte opp i sin strategi.


MDG Ap R SV Sp V H FrP KrF
Bokmål 3 3 3 3 3 3 3 3 2
Nynorsk 3 3 3 3 3 3 3 3 2
Samisk 2 3 3 2 3 3 3 1 2

3 = Veldig viktig
2 = Ganske viktig
1 = Litt Viktig
0 = ikke viktig

Venstre skriver at «De to språkene og to målformene er en viktig del av norsk kultur. Nordsamisk er det mest brukte samiske språket, og som ett av Norges to offisielle språk må det en forsterket innsats til for å ivareta og styrke samisk språk og kultur. Wikipedia er et viktig oppslagsverk for kunnskap og historie, og må derfor være tilgjengelig på begge språk og målformer».

Senterpartiet skriver at de «… mener at alle skal ha informasjon tilgjengelig på sin målform, og at vi i Norge spesielt må være flinkere til å ivareta nynorsk».

SV siterer fra sitt arbeidsprogram at SV vil «Sikre de offisielle minoritetsspråkene samisk, kvensk og tegnspråk. Støtten til produksjon og oversettelse av litteratur på samiske språk og kvensk skal økes».

Rødt skriver at «En av Wikipedias store styrker er at prosjektet er tilrettelagt for at alle kan få tilgang på informasjon på sitt eget språk. Dette er et viktig demokratisk prinsipp vi støtter fullt ut».

Hva mener de politiske partiene om åpne lisenser for statlig finansierte kunnskaps- og kulturbaser? Her fra spørretime i Stortinget 31. mai 2017.

Høyre skriver at «Vi er nå i ferd med å oppdatere informasjonen vår på nynorsk. Høyres sametingsprogram blir oversatt til nordsamisk».

Arbeiderpartiet skriver at de vil «føre en aktiv språkpolitikk som gjør at norsk eller samisk forblir det foretrukne språket i alle deler av norsk samfunnsliv. Nynorsken skal sikres gode utviklingsmuligheter».

MDG skriver at «Det språklige mangfoldet i Norge er en viktig kulturell verdi og ressurs som må ivaretas og dyrkes. De Grønne vil la språkmangfoldet synes og høres i hverdagen og utnytte mulighetene det gir, det betyr også at vi må sørge for at kunnskap er tilgjengelig på de språkene vi har».

KrF skriver at «Det er naturligvis viktig at kunnskap og informasjon er tilgjengelige på de norske språkene. Det er viktig både i forbindelse med opplæring, undervisning, den generelle allmenndannelsen og for den offentlige debatten. Så er det samtidig naturlig at land med til dels betraktelig flere innbyggere enn Norge har flere artikler på sitt eget språk enn det som finnes på norsk. Det er også nyttig å kunne ta til seg informasjon som finnes i engelskspråklige artikler, og derfor er god engelskundervisning i skolen viktig. Men at så mye informasjon som mulig også er tilgjengelig på norsk er naturligvis et gode.»

FrP skriver at «Samer forstår norsk og kan tilegne seg kunnskap på norsk, men med informasjon på samisk så vil det bli lettere for samene å ivareta sitt samiske språk».

Skal statlig finansierte kunnskaps- og kulturbaser legges ut under fri lisens?

Er partiet enig eller uenig i at alle statlig finansierte kunnskaps- og kulturbaser skal legges ut under fri lisens dersom det er mulig? Seks av partiene er helt enig i utsagnet mens FrP er ganske enige. Senterpartiet og KrF har ingen politikk på dette området.


MDG Ap R SV Sp V H FrP KrF
Fri lisens 3 3 3 3 ? 3 3 2 ?

3 = Helt enig
2 = Ganske enig
1 = Litt enig
0 = Ikke enig
? = Partiet har ingen politikk om dette

Venstre skriver at «Digitaliseringen gir nye muligheter for strukturering og deling av omfattende mengder informasjon. Venstre mener at det offentlige har et særlig ansvar for å legge til rette for både tilrettelegging og deling av denne informasjonen. Kunnskap er makt, og digitaliseringen gjør at mer kunnskap kan spres til fler. All offentlig informasjon og egnede data som er produsert av offentlige institusjoner bør derfor gjøres tilgjengelige under fribrukslisens. Det samme gjelder f.eks. forskningsresultater som er finansiert med offentlige midler.»

MDG skriver at «Kunnskap og kultur finansiert av skattebetalerne bør som utgangspunkt også være tilgjengelige for skattebetalerne til fri bruk. Fri tilgang på kunnskap og data kan bidra til å holde politikere ansvarlige og gir grobunn for å utvikle nye tjenester og ny kunnskap raskere. Det kan bidra til å skape nye arbeidsplasser og viktig kunnskap for å skape et bedre samfunn. Arbeiderpartiet skriver det slik: «Kunnskap finansiert av fellesskapet bør være tilgjengelig til bruk for fellesskapet».

Høyre skriver at «Vi er enige, men Høyre mener også at folk skal kunne leve av det de skaper og at det derfor er viktig å ivareta opphavsrett- og eiendomsretten til digitalt skapt kunst og kultur».

FrP skriver at «Vårt utgangspunkt er at åndsverk finansiert av det offentlige, bør være underlagt fri lisens. Dette er likevel noe vi mener best løses gjennom avtale mellom partene, snarere enn gjennom preseptorisk lovgivning.»

KrF skriver at «Dette har vi ikke diskutert grundig nok i partiet til å svare på per nå. Men det er en interessant debatt, og vi vil gjerne lytte til gode argumenter fra relevante aktører i dette».

Hvilke områder mener deres parti er egnet for å dele informasjon og arkivmateriale under en fri lisens?

Arbeiderpartiet: «Allmennyttig materiale som bidrar til økt kunnskap og innsikt i samfunnsutvikling, forskning og politiske beslutninger.»

Høyre: «Vi anbefaler åpne standardlisenser for så mange bruksområder som mulig.»

Fremskrittspartiet: «Arkivene til NRK.»

Venstre: «Forskningsdata og forskningsresultater er blant de tydeligste kandidatene, og slik informasjon bør gjøres fritt tilgjengelig umiddelbart etter publisering. Arbeidet med å digitalisere materiale i offentlige og private arkiver må også intensiveres. Øvrige data fra både statlige og kommunale offentlige myndigheter vil også kunne danne grunnlag for nye tjenester, og hvilke data som er mest egnet vil gjerne vise seg etter at de er frigitt.»

Sosialistisk Venstreparti: «Bilder og fotografi, musikk og annet som frivillig deles under frie lisenser av opphavsmann, Nasjonalbiblioteket og andre bibliotektjenester, offentlige dokumenter, statistikk og forskning.»

Miljøpartiet De Grønne: «Vi vil dele all offentlig informasjon så fritt som mulig. Det finnes stadig flere områder hvor frie lisenser er en god løsning for informasjonsdeling, men i programmet har vi spesielt lagt vekt på programvare, digitale museumssamlinger, forskning og skolebøker. Vi har programfestet at vi vil få utviklet et system for årlig registrering og publisering av verk som faller i det fri når vernetiden går ut, og at NRKs arkiv skal være tilgjengelig for alle. Vi vil også redusere lengden på vernetiden.»

Rødt: «Rødt er tilhengere av at mest mulig informasjon og arkivmateriale er offentlig tilgjengelig. Vi mener for eksempel at offentlig finansiert forskning bør være tilgjengelig for alle, og ikke være avhengig abonnementer på tidsskrifter eller kjøp av artikler. Også offentlig finansiert kultur bør mangfoldiggjøres på en måte som ivaretar opphavspersonenes rettigheter. Vi mener videre at historiske arkiver i størst mulig grad blir tilgjengelig for allmennheten, også utenfor akademia.»

Senterpartiet og Kristelig Folkeparti oppgir at de ikke har vedtatt noen politikk på området.

Konklusjon

De fleste partiene er fornøyd med artiklene om eget parti og politikere i Wikipedia. Flere angir at de mener artiklene er viktige og at de ønsker at artiklene skal få bedre kvalitet og at flere politikere bør få egne artikler. De fleste partiene har angitt at de selv har bidratt på egne artikler, men samtidig angir flere at de er varsomme med å aktivt redigere egne artikler, eller at de kun retter opp faktafeil.  Flere partier utgir egne bilder f.eks. på Flickr med frie lisenser og oppfordrer Wikipedia til å benytte disse. Rødt klager over at deres politikere blir slettet fra Wikipedia, mens FrP klager over at artikkelen om dem har stort fokus på mindre viktige negative hendelser.

Alle partiene mener at det er viktig å tilby kunnskap på begge norske målfører. De fleste er også enige i at nordsamisk er viktig. Venstre skriver at Wikipedia er et viktig oppslagsverk som må være tilgjengelig på alle språk og målformer.

Seks av partiene er helt enige i at statlig finansierte kunnskaps- og kulturbaser skal legges ut under en fri lisens der det er mulig. Arbeiderpartiet skriver at kunnskap finansiert av fellesskapet bør være tilgjengelig for fellesskapet. Samtidig bemerker flere parti at opphavsrett- og eiendomsrett til digital skapt kunst og kultur, må ivaretas.

Flere partier nevner at data og resultat fra offentlig finansiert forskning bør legges under en fri lisens og at NRKs arkiv skal frigis.

Miljøpartiet De Grønne ønsker å redusere lengen på vernetid. Opphavsretten i dag varer i opphavsmannens levetid og 70 år etter utløpet av vedkommendes dødsår.

Taushetsbelagt informasjon, personsensitive saker og områder som berører rikets sikkerhet er de fleste partiene enige om at ikke er egnet for å deles. Ellers nevnes selvfinansierende og opphavsrettslig materiale som problematiske.

Wikimedia Norge er svært fornøyd med at alle partiene svarte på våre spørsmål. Vi registrerer også at flere partier mener at Wikipedia er et viktig oppslagsverk for kunnskap og historie og at en av Wikipedias store styrker er at alle kan få tilgang til kunnskap på sitt eget språk. Wikimedia Norge er også svært fornøyd med at flere parti ønsker å frigi offentlig finansierte arkiv og kunnskapsdatabaser. Vi ønsker også å framheve de parti som ønsker å gjøre noen lettelser i opphavsretten, f.eks. å redusere vernetiden. Likevel viser undersøkelsen at det er behov for å informere politikerne om behovet for fri kunnskap, hvilke fordeler fri kunnskap har, og hvordan lovgivningen kan tilpasses fri kunnskap.

]]>
Faktisk lettere gjort enn sagt https://voxpublica.no/2017/08/faktisk-lettere-gjort-enn-sagt/ Thu, 17 Aug 2017 10:49:00 +0000 https://voxpublica.no/?p=17626 Som tiltak mot falske nyheter, løgn og bedrag i norske nyheter startet i år et knippe nyhetsredaksjoner faktisk.no, en ideell organisasjon som skal faktasjekke påstander som fremmes i norsk offentlighet. Faktisk.no er faktisk ganske lik det Bergens Tidende har gjort en del år med Faktasjekk.no, som igjen likner en del på prosjekter som politifact.com.

Bak faktisk.no finner vi organisasjoner som VG, NRK, Dagbladet, TV 2 og Schibsted. Det er også støttet fra universiteter, IBM og andre. Det er viktig at maktpersoner ikke slipper unna med løgn, og denne typen faktasjekk er det ikke mulig å automatisere ennå. Kanskje aldri.

Dermed er nok en koalisjon på tvers av organisasjoner en god idé.

Faktisk.no sjekker om relevante påstander som ytres i det offentlige rom stemmer. Slik faktasjekking krever et sett med kriterier oppfylt for å kunne komme til en konklusjon, for eksempel kan de ikke sjekke påstander om fremtiden, preferanser (ideologiske, religiøse, etc.) eller påstander som ligger utenfor vitenskapen (hva satt i gang the Big Bang? Eller P vs NP), eller som ikke er dokumentert (hvis et tre faller i skogen..) eller ellers hemmelig(-stemplet). Det er ikke lett.

Men det skal bli verre.

Se på dette:

Nå kan både lyd og bilde kapres, slik at lyd og bilde av mennesker som det finnes passe mengde video med ok kvalitet av, kan syntetiseres til å si hva som helst.

Om noen år kan vi altså se for oss at sannhetsgehalten i hva som sies ikke alene er vanskelig, vi må også avgjøre om noe faktisk ble sagt i det hele tatt. Hva gjør vi når Erna Solberg sier på TV at vi skal (eller ikke skal) skyte flere ulv, melde oss inn/ut av EU, bombe (sett inn land)? Putin annonserer sin støtte/trussel mot Nord-Korea? Trump annonserer TrumpCare, en gratis helseforsikring for alle amerikanere etter nordisk modell?

I polariserte samfunn, der vi alle sitter i vår egen boble og får bekreftet hvem som er de gode og onde etter eget velbehag, kan dette skape alvorlige problemer. Det er mange psykologiske prosesser som lurer oss til å beholde våre eksisterende overbevisninger (confirmation bias, status quo bias, Negativity Bias, etc). Mange av oss er allerede inni den boblen.

Illustrasjon fra Thies et al. paper

Illustrasjon fra Thies et al. paper som beskriver metode for ansiktsoverføring.

Vi kommer selvsagt til å få bedre programvare til å analysere video for juks, slik vi har for fotofikling, men her havner vi i et evig kappløp vi ikke kan garantere at offentligheten og journalistikken kommer til å vinne. Det kan bli en gal gal verden.

Ennå er denne teknologien såpass umoden at det ikke er vrient å se at noe er galt. Det er dog rimelig å forvente at dette blir vanskeligere og vanskeligere. Prosjektet til Faktisk.no er kostbart, viktig, vanskelig og ikke skalerbart. Utfordringene for faktasjekkere kommer ikke til å bli lettere i framtiden.

PS: Takk til RadioLab for å finne fram denne historien, som er en podcastepisode med tittelen “Breaking News”. De har også laget en webside der du kan utforske teknikkene som er tilgjengelige for å lage syntetiske videoer på futureoffakenews.com.

]]>
Flere verk, mer mangfold: Den globale digitale allmenningen er i sterk vekst https://voxpublica.no/2017/05/flere-verk-mer-mangfold-den-globale-digitale-allmenningen-er-i-sterk-vekst/ Tue, 09 May 2017 08:52:19 +0000 https://voxpublica.no/?p=17361 Siste helg i april ble årets Creative Commons Global Summit arrangert i Toronto, Canada. Konferansen samler aktivister fra hele verden som er engasjert i å fremme et åpent og fritt internett med spesielt fokus på fritt digitalt innhold og lisenser som bidrar til å skape en global delingskultur.

Under åpningen av årets CC Summit ble State of the Commons 2016 lansert. Rapporten viser utviklingen av den globale delingskulturen, og dekker alt fra enkle ressurser som bilder og video til sammensatte læringsressurser eller det som kalles Open educational resources (OER). Hovedkonklusjonen i årets rapport er at den digitale allmenningen fortsetter å vokse i et voldsomt tempo.

Jane Park er Director of platforms and partnerships hos Creative Commons. Når jeg spør henne hva som er nytt i årets State of the Commons, svarer hun:

Fra å fokusere mest på tall og statistikk tidligere, har vi i år hatt mer fokus på menneskene bak prosjektene. Dette er er første gang vi har samlet gode eksempler fra hele verden i forbindelse med State of the Commons, og fra disse plukket vi ut de beste historiene for å vise frem den globale delingskulturen.

Historiene dekker områder som billedkunst, musikk, utdanning og forskning. Alt fra New Yorks Metropolitan Museum of Art, som har sluppet 375000 digitale verk i det fri, til prosjektet African Storybook som har gjort tilgjengelig bøker på en rekke afrikanske språk under Creative Commons-lisens.

Utviklingen i antall verk med Creative Commons-lisens.

Mest imponerende er likevel Wikipedia med sine 2,5 millioner frivillige som har bidratt med 42,5 millioner artikler på 294 forskjellige språk. Flickr er fortsatt størst innen fotografi, og kan nå vise til smått utrolige 381 millioner bilder publisert under en av CC-lisensene.

YouTube leder, ikke overraskende, an blant videotjenestene og har akkurat nå passert 30 millioner filmer underlagt en fri lisens. Det er ikke mange norske prosjekter på listen, men Nasjonal digital læringsarena (NDLA) (der undertegnede er ansatt) er fortsatt Europas største offentlige prosjekt for åpne digitale læringsressurser (OER), både med tanke på antall ressurser og antall unike brukere.

Det eksisterer nå over 1,2 milliarder bilder, filmer og andre verker med Creative Commons-lisens, som er en økning på 100 millioner fra 2015. I tillegg viser statistikken at bruken av de mest liberale lisensene fortsetter å dominere. Av alt innholdet som nå deles fritt er nesten 65 prosent underlagt en lisens som gir deg som bruker mulighet til å gjenbruke, endre og til og med bruke verket i kommersiell sammenheng. Disse lisensene er det vi kaller “Free Culture”-lisenser.

Fordelingen av de ulike typene Creative Commons-lisenser. De mest liberale lisensene er mest populære.

Årets konferanse viser i seg selv hvor stor denne bevegelsen er i ferd med å bli. Konferansen var utsolgt lang tid i forkant og aldri har så mange mennesker fra så mange forskjellige nasjoner vært samlet for å stake ut kursen for fremtidens Creative Commons-fellesskap.

]]>
Uten roboter stopper pressen https://voxpublica.no/2017/01/autostory-robotjournalistikk/ Mon, 30 Jan 2017 08:23:13 +0000 https://voxpublica.no/?p=16989 Autostory er et essay om hvordan automatisering av redaksjonelle prosesser vil påvirke selve journalistfaget. Det tar for seg journalistisk programvare med fokus på automatisk skrevne tekster og dataene som gjør dette mulig, automatisk faktasjekk og litt om mennesker som arbeider som datajournalister.

Essayet er en slags brain-dump fra to hoder som har stirret lenge på hvordan roboter opererer med og rundt journalistikken. Vi får med en god dose beskrivelse av praksis, en del drøftede, men ubesvarte spørsmål, og noen pek inn i en potensiell framtid.

La det være sagt tidlig: Forfatterne Otterdal og Ruud er teknologioptimister.

Vi bygger boken på den oppfatning at en automatisering av tidkrevende skriveprosesser, i tillegg til å være verktøy i eksempelvis research og graving, vil gi en oppblomstring av god journalistikk i demokratiets, menneskehetens og naturens tjeneste. (p8)

De er ikke opptatt av journalistikk i form av organisasjoner eller bedrifter, de er opptatt av journalistikk som funksjon i samfunnet, og deres pek inn i framtiden viser ikke det mange som jobber i bransjen i dag har lyst til å se. De tar det som for gitt av menneskene som frigjøres fra skrivearbeidet settes til å gjøre annen god journalistikk. Litteratur-spiren som ble journalist for å betale husleia er død.

De journalister som har levd i den villfarelse at det er tidkrevende, omstendelige arbeidet med å produsere ord og setninger, at det er kjernen i journalistikk, bør kanskje se seg om etter andre yrker og fag. (p6)

Eller formulert mer etter Hegnar-prinsippet:

Egentlig tar det ikke mer enn fjorten dager å lære det grunnleggende i journalistikk. Det er mye bedre å trene opp folk med teknologisk kunnskap til å forstå journalistikk, enn det motsatte (s63).

Sånn kan man jo effektivt skremme vekk den gruppen som kanskje umiddelbart framstår som publikum for teksten. Så hvem er nå det egentlig? Forfatterne selv uttaler at det er lesere utenfor tradisjonell presse, “eksempelvis studenter som utdanner seg innen informatikk” som er publikum. En ganske smal gruppe. Jeg vil legge til universitets-folk både fra teknologi og journalistikk, medieledere (selv om det kanskje kan framstå som en grøsser for noe av dem), så vell som teknologer og hacktivister som formodentlig kan finne problemer å løse både for samfunnsnytte og profitt.

BOKOMTALE
autostory
Magne Soundjock Otterdal og Geir Terje Ruud: Autostory. Et essay om hvordan automatisering forandrer journalistikken. Cappelen Damm 2017.

Så hva er nå en “autostory” i denne sammenhengen?

Tyngdepunktet i boken er rundt tekster som er skrevet av en datamaskin, ikke av et menneske på en datamaskin. Maskingenererte nyhetstekster. Dette kan være tekster skrevet av kommersiell programvare a la Quill (Narrative Science) eller WordSmith (automated insights) eller mer spesialdesignet kode som VGs mye omtalte kommunegjeld-robot.

Om du er mer teknisk nysgjerrig kan du se på koden og presentasjonen til Jens Finnäs fra #noda16. Finnäs viser oss her et slags minimums-eksempel, som er lett å forstå. Teknologien bak Quill og Wordsmith er mer avansert. Finnäs prosjekt blir for øvrig omtalt i autostory, da i den mer avanserte (men fortsatt enkle å forstå) roboten Marple. De mener rett og slett programvare som setter sammen ord til nyhetsfortellinger — autostories. Det er i hovedsak slik programvare de snakker om når er sier “robot”, selv om de avslutningsvis også inkluderer droner.

En fremtid der nesten alle journalistiske tekster er produsert slik, eller i alle fall startet som en slik autotekst, er den verden Otterdal og Ruud forsøker å tegne et bilde av. Et ganske vakkert bilde tegner de.

Hva med ulempene?

Jeg savner en lengre diskusjon rundt ulempene. Hva med slagsidene vi baker inn i programvare? Hva med journalistiske tekster som litterære verk, med forfatterens egen tydelige stemme, språklig musikalitet, eleganse og fingerspitzgefühl som denne typen syntetiske tekster kanskje aldri får? Hva når alle som har data (offentlige, private, NGOer) genererer sine egne nyheter, basert på sine og ikke journalistikkens preferanser, publisert i de sosiale mediene der publikum er? Hva med de rene propaganda-robotene?

Mot slutten anerkjennes en del problemer, som “avkvalifisering av mannskapet” som automatisering ofte medfører, fartsblindhet, etiske utfordringer og problemer rundt automatiseringen av faktasjekking. Selv om det både finnes historiske, kontemporære og framtidige (forsknings så vel som journalistiske) prosjekter som forsøker å angripe dette, så er det slettes ikke innlysende at dette er et problem som lar seg løse maskinelt ut over spesialiserte caser. Naturlige språks (talespråk) vaghet har jo alltid være en politiker, bedriftsleder og deres spindoktors beste venn. Slike pessimistiske perspektiver er ikke å finne i autostory, selv om teksten kanskje hadde gitt et mer realistisk bilde av verden hvis den slags var tatt med.

Vi får derimot en helt annen løsning på problemet: Altså — det er mye “fake news”, sladder, feilaktig informasjon og propaganda der ute på nett. Etter å ha erkjent at markedet (som støtter finansieringen av automatiserte tekster) ikke stiller de samme type ressurser fram for sivilsamfunnets interesser, oppgir forfatterne journalistikken som løsning på problemet og foreslår å bruke (halvparten) av lisenspengene som i dag går til NRK på å “utvikle programvare som hjelper borgere med å avdekke manipulasjon, falskneri og plagiat på nett” (p83). Dette vil være en ny måte å definere et digitalt samfunnsoppdrag på, mener de. Dette er en karamell flere kan få tygge litt på.

Autostory veksler mellom å være ganske selvsagt til å være ganske provoserende. Det pekes på mange områder der journalister, studenter eller andre kan gå inn og skape noe, uten å forklare hvordan eller om det i det hele tatt er teknologisk mulig. Dette er forfriskende og henger fint sammen med det optimistiske perspektivet teksten har. Jeg tok meg selv flere ganger i å gruble på om problemer som omtales i boken i det hele tatt lar seg løse teknologisk, eller om de kan være av den typen problemer som ikke ordentlig lar seg fange av formalspråkenes krav til presisjon.

Ingen framtidstragedie

Essay-formatet tillater det formodentlig, men jeg savner en teoretisering av den journalistiske modellen i autostory. Rent hvordan journalistfaget blir etter påvirkningen av automatisering er ganske uklart — jeg savner en modell. Noe å holde i eller peke på. En slags oppsummering, og bro mellom menneskene som driver datajournalistikk (kap4) og oppgavene som skal løses (kap 2,3–5). Jeg sitter også igjen og lurer litt på hva hovedargumentet egentlig er. I (en veldig nær) fremtid skriver datamaskiner ut nyhetstekster, spesialtilpasset til rett platform og bruker, gitt rik og riktig input. Hva så? Annet enn at det blir bra, er det uklart hvordan journalistikken er endret.

Vi får en ganske ok status for autostories hos dem som ligger lengst framme i dag, vi får mange eksempler på suksesshistorier med imponerende godt oppdaterte referanser (nesten alt som omtales i autostories skjedde i 2016) og en litt uklar fremtid og implikasjoner. Å kikke inn i fremtiden er ingen lett jobb (det er faktisk umulig — selv for roboter); her får vi tegnet ned et glimt av det som er der fremme, men forfatterne kunne tillatt seg å dratt enda litt mer på. Beskrevet den hypotetiske verden litt klarere, og tatt seg noen kunstneriske friheter en robot kanskje aldri helt vil matche, og tatt med flere av nedsidene.

I siste kapittel, lengst inn i framtiden, møter vi en journalist og hans drone som dekker en trafikkulykke nær deg. Den historien skal jeg la den som kjøper boka få lese, men la meg avsløre at det ikke er en tragedie du får lese. Jeg anser meg selv som teknologioptimist, og synes det er rart å omtale et verk skrevet av to kloke menn som har brukt betraktelig tid i nyhetsredaksjoner, og ofte tenke at de har tatt litt for mye Möllers tran på teknologiens vegne — og at de har unnlatt å teoretisere og problematisere der det hadde vært betimelig.

Men kanskje — kanskje er det just denne typen løpefart og tran som skal til, de omtaler jo en bransje som sårt trenger endring og samtidig ikke vil endre seg. Hvis du har teknologiske muskler og lyst til å jobbe med journalistikk er dette en rik kilde å idémyldre rundt. Hvis du hever lønn for å skrive tekster for en avis, og har planlagt å fortsette med det, så er det best for sjelefreden din at du finner noe annet å lese.

]]>
Det beste fra Norden: nyhets­ap­pli­ka­sjo­ner og datajournalistikk https://voxpublica.no/2016/04/resurser-nyhets%c2%adap%c2%adpli%c2%adka%c2%adsjo%c2%adner-og-datajournalistikk/ Mon, 25 Apr 2016 10:34:19 +0000 https://voxpublica.no/?p=15695 Årets #noda, nordisk datajournalistikkonferanse, er just ferdig i Helsinki og for tredje gang ble det det ut pris for Nordens beste datajournalistikk. Det var i år 53 kandidater som kjempet om æren, og VG stakk av med prisen i to av fire kategorier.

Årets konkurranse hadde en ny kategori, beste mobile datajournalistikk, som den finske allmennkringkasteren YLE vant med en ny leken Tinder-variant på det gamle valgomat-konseptet. SVT tok prisen for beste applikasjon med visualiseringen Flyktingströmmar till EU, mens VG altså tok prisene for både beste undersøkende journalistikk og beste feature. De norske ofrene er et gigantisk arbeid, og identifiserer både hvem og hvor nordmenn gav sitt liv i andre verdenskrig.

Skjermbilde fra VGs prisvinnende prosjekt om de norske ofrene i 2. verdenskrig.

Skjermbilde fra VGs prisvinnende prosjekt om de norske ofrene i 2. verdenskrig.

Alle datajournalistikkprosjekter er sårbare for dataråte, så vi får krysse fingrene for at VG klarer å holde denne i live lenge, så vel som at Nasjonalbiblioteket eller liknende finner en god måte å ta vare på arbeidet til VG inn i fremtiden.

Det var VGs nedlasterne som tok prisen for undersøkende journalistikk. Det er gøy å se at gjengen i VG år etter år leverer store gode tunge dataprosjekter, de har tydeligvis et godt maskineri for å få til denne typen journalistikk. Blant de nominerte finner vi også Sunnmørsposten, Bergens Tidende og innsyn.no (FVN) fra Norge. Dagbladet, Stavanger Aftenblad, NRK, TV2 og Adresseavisen hadde også arbeider påmeldt. Alle de nominerte arbeidene kan studeres på konferansens nettsider, og også på nodabase.net hvor eksempler på god datajournalistikk samles av NXT Media.

Flere godbiter

Når vi først er på ressurs-samlinger med datajournalistikk, så har vi også en oppdatering. I 2010 lagde vi en liste over innovativ og spennende datajournalistikk presentert som nyhetsapplikasjoner. Nå har vi fått tak i en ny oppdatert liste fra Joakim Karlsen, høyskolelektor ved Høgskolen i Østfold og forfatter av flere artikler om datajournalistikk og fagfeltet mellom teknologi og historiefortelling. Listen er ispedd noen ekstra godbiter, f.eks. Jonathan Strays nye bok om data for journalister og den svært matnyttige “Quartz guide to bad data”.

Karlsen forteller at det er en tydelig smitteeffekt på hvilke formater som velges, slik at etter at New York Times lagde sin berømte Snowfall, så finner vi i nå i ettertid en hel mengde slike “snowfalls”. Dette ser ut til å være en mote, som alle hopper på og lager til det er over-brukt. Ellers er det fortsatt, som vi også ser i noda-nominasjonene, de største redaksjonene som leder an, samtidig som det er tydelig at faget fortsatt er veldig personavhengig. Det er “guruer” der ute som ofte fungerer som hjørnestein i prosjekt etter prosjekt, og som etter resultatene å dømme leder fagfeltet ved i stor grad personlig å definere hva og hvordan ting skal gjøres.

Portal-sider:

Saker:

Og enda noen godbiter for den gryende datajournalist

]]>
Stor forbedring: ssb.nos data-API v2 ute i beta https://voxpublica.no/2016/01/ssb-nos-data-api-v2-ute-beta/ https://voxpublica.no/2016/01/ssb-nos-data-api-v2-ute-beta/#comments Tue, 12 Jan 2016 11:56:48 +0000 https://voxpublica.no/?p=15571 For tiden tester ssb.no sin kommende versjon av sitt data-API og denne gangen ser alt mye bedre ut enn før: 5000 tabeller, json-stat og du kan være med å teste.

I 2009 skreiv vi i voxpublica om ssb.no’s nye websider og tanker om API, det hadde (muligens uoffisielt) kodenavn “nyessbno”. Da tiden endelig kom for et riktig API, kom data.ssb.no som hadde (og fremdeles har) et utvalg av SSBs mest populære tabeller.

Det var helt klart et skritt i riktig retning, men API-et er ganske begrenset, for eksempel for en nysgjerrige gravende journalist er dette smale utvalget formodentlig et rimelig uinteressant sted å grave.

Det som holder på å skje nå er mye viktigere: nå kommer 5000 tabeller (“alle 5000 statistikkbanktabellene”, ifølge invitasjonen til å beta-teste tjenesten). Formodentlig løpende oppdatert ettersom ny data kommer inn. Hvis dette blir praksis gjør SSB det vi håpte de skulle i forrige runde: gjøre seg relevante for digitale hoder som trenger maskinlesbare tall for viderebruk.

Dette betyr et mye bredere tilbud, et mye mer spennende tilbud og forhåpentligvis et tilbud som kan gjøre data fra ssb.no mer brukt i pressen, på kafeer, taxier og rundt middagsbordene.

Dette kan for noen kanskje se ut som en teknisk detalj (nytt API) for statistikk-nerder. Det er helt riktig, og indirekte en total misforståelse. For de som ikke leser tall med glede, leser nemlig bilder like lett som alle andre. Synet vårt er perfeksjonert gjennom evolusjon til å raskt oppfatte farer og goder så vel som trender og endring — perfekt for å tolke datavisualiseringer. Og mer data fra ssb.no i fornuftig dataformat er en servering på sølvfat for den som vil presentere tall i bilder.

Eksempler:

API-et er i beta, og ble åpnet den 22 desember 2015, så det er ikke all verdens av diversitet i eksempler å peke til ennå, men Xavier Badosa (utvikler av JSON-stat.org) har flere eksempler fra første versjon av API-et. Det er f.eks. slike ting vi kan forvente oss å se mer av:

valutta_kalk

Inflasjonskalkulator

eldregolgen

Animert populasjospyramide, “eldrebølgen”.

koroplett_norge

Koropletkart over Norge farget etter kommunens innbyggertall

smaabarn_norge_over_tid

Småbarn i Norge over tid

At SSB har data åpner også for sammenlikning med data fra andre land. Her norsk og dansk inflasjon sammenlignet.
dansk_norsk_inflasjon

Konsumprisindeksen for Norge og Danmark i samme graf.

Da Norge ikke er med i EU og vi stort sett ikke er med i målet for eurostat blir dette ekstra viktig. Her er arbeidsledighetstallene til OECD.
arbeidsledighet

Badosa har flere eksempler på bl.ocks.org — alle på det “gamle” API-et, men det nye ser ut til å følge over samme lest, som virker som en fornuftig modell. API-et er i beta, så det er ikke urimelig å finne ting som ikke virker, er feil, ikke er så stabilt eller oppdatert som et ferdig vil være, men at vi får innblikk i dette mens det fortsatt er under utforming, er en fordel for alle.

Her er APIet

Det er ikke lenket fra ssb.nos vanlige nettsider enda, men her er lenkene til det gamle og det nye (antakelig med midlertidig URL) API-et.

PS: I min iver og i tumultene av et nytt semester copy/pasta jeg eksempelkode fra pyjstat og konkluderte at jeg måtte sette meg ned med bedre tid, for dette virker ikke. Greia var at det nye API-et forventer POST-kall med parametre fra console’n. Her er python-kode som virker (takk til SSB for raskt svar):

Hvis du kjenner til flere eksempler om hvordan det nye API-et blir brukt, eller har laget noe selv, eller har noen ideer til hvordan dette kan eller bør brukes: legg igjen en kommentar under — vi trenger at disse dataene kommer til syne og til nytte.

]]>
https://voxpublica.no/2016/01/ssb-nos-data-api-v2-ute-beta/feed/ 5
Nyheter — fra bruk og kast til intelligent gjenbruk https://voxpublica.no/2015/10/nyheter-fra-bruk-og-kast-til-intelligent-gjenbruk/ Sun, 11 Oct 2015 06:59:04 +0000 https://voxpublica.no/?p=15388 Hvorfor er nyheter et bruk-og-kast-produkt, og hvordan kan vi sørge for at det ikke er det i fremtiden? Dette er et aspekt ved Jeremy Evans’ prosjekt explaain.com som nylig ble presentert i Bergen Journalism Lab. Explaain.com bygger på “strukturert journalistikk” for å gjenbruke informasjon i en nyhetsredaksjon.

Evans, som både er teknolog og journalist, presenterte først noen antagelser for problemet han ønsker å løse:

  • At dagens nyheter er morgendagens innpakningspapir for fisk, er sløsing med resurser.
  • Journalistikk kan deles inn i front-end og back-end. Back-end er informasjons-innhenting, kilde-håndtering, data-tilgang, finne fakta, etc. Front-end er det journalisten legger til: forklaringer, forenklinger, vinklinger, kritikk, etc. I våre dager kan “alle” gjøre back-end, og journalistikken må fokusere på front-end mens den sikrer at back-end er top notch. Dette kan i ytterste konsekvens bety at vi burde dele på back-ends for å holde denne så effektiv som mulig.
  • Journalistikk er viktig. Politikere bruker ufattelig mye ressurser på å finne ut hva vi tror om ting. Og hvis vi tror ting feilaktig, så tilpasser politikere seg våre feilaktige oppfatninger. Vi trenger bra informasjon for å unngå dette.
  • “Evergreen” journalistikk bør være et høyere mål. Det er en feiltagelse å ha så stort fokus på øyeblikket, på det nyeste nye, det er mye mer fornuftig å fokusere på tematikkene som eksemplifiseres i det løpende nye, som oftest er mer vedvarende og går dypere.
  • Det finnes en gylden middelvei mellom konsis, objektiv og forklarende journalistikk, som er just hva vi trenger.
    Antagelse: Det finnes en gylden mellomvei mellom konsis, objektiv og forklarende journalistikk, som er just hva vi trenger.

    Antagelse: Det finnes en gylden middelvei mellom konsis, objektiv og forklarende journalistikk, som er just hva vi trenger.

  • Selv om vi alle er partiske på et eller annet nivå, så vil kildehenvisning på et mer granulært nivå gjøre dette mer synlig både for lesere og journalister, og dermed mer håndterbart.
  • Nyheter kan atomiseres.

Løsningen Evans luftet kan du se en prototype av på explaain.com. Den er ikke ferdig ennå, og er mer som en idé som ennå ikke har funnet helt form. Ideen er dog god, og vi har sett den før. Jeg har omtalt den som database-journalistikk (da formen låner mye av sin funksjonalitet fra relasjonelle databaser), men som også omtales som strukturert journalistikk.

Poenget er å komme vekk fra en verden der en story er en gammeldags tekst (som denne bloggposten), og å komme til at en story blir en rekombinering av storyens iboende bestanddeler. Mennesker er person-objekter, steder er sted-objekter, osv, og når vi allerede har mye informasjon om mange både steder og mennesker, trenger vi å skrive minimalt om disse gang på gang. Og for hvert nye objekt, eller kunnskaps-atom, så vokser organisasjonens kollektive kunnskap og nye stories tar kortere tid.

explaain

Her ser vi et eksempel på hvordan dette kan se ut på explaain.com. Til venstre under overskriften: “the gist” (sakens kjerne) er en tekstlig bekrivelse av hva som har skjedd. Den er kompakt og inneholder bare det viktigste. Nesten alle setningene er klikkbare for å vise mer informasjon. Evans bruker læringskort (flash cards) som metafor for alle atomiske fakta i systemet sitt. Når jeg klikker på den første setningen, får jeg opp informasjon for læringskortet om “tv-debatten”, ved å klikke videre på “general election” får jeg opp læringskortet for parlamentsvalget i 2010, som denne debatten foregikk i forkant av. Noen trenger ikke all denne informasjonen, mens andre gjør det. På denne måten kan informasjonsmengden justeres etter leserens behov.

Den grafiske framstillingen vi vises her likner mye på modeller for hypertekst-journalistikk som var brennhet på slutten av 90-tallet (se for eksempel forskningen til Martin Engebretsen), med den forskjellen at dette ikke er ment som et navigasjonslag, men en organiserings-form for en nyhetsplattform helt fra database-server til sluttbruker. Journalistikk-som-plattform er et av målene for Evans.

Vi ble vist andre måter disse læringskortene kan rekombineres på, og med andre visuelle presentasjoner, for å fortelle journalistiske fortellinger basert på ulike læringskort. Et viktig poeng med kortene er at de kan gjenbrukes mellom flere forfattere, og også endres til ulike versjoner for å rette opp vinklinger. Hvem som er forfatteren av hvert kort vil alltid kunne sees, slik at publikum og journalister får innsikt i hvems formuleringer som gjenbrukes. Kortene kan være beskrivelser av personer, steder, osv, men også være datasett, visualiseringer, videoer, lydsnutter, dokumenter, etc. Andre visuelle former kan for eksempel være i form av lysbildevisninger, tidslinjer, annoteringer av kart, etc. Kortene skal lett kunne rekombineres og gjenbrukes. Fold.cm ble trukket fram i diskusjonen som en mulig fremtidig inspirasjonskilde.

Ideen om strukturert journalistikk, å atomisere journalistiske produkter for så å sette dem sammen igjen på en gjenbrukbar måte, har vi sett før. Politifact og everyblock har vært brukt som eksempler. Selv synes jeg HomicideWatch D.C. er et fint eksempel: vi har en stor database over fakta (drapssaker) og kan lett navigere denne på en måte som avslører database-spørringer (homicidewatch.org/victims/race/black/ lister ut saker der offeret er en afroamerikaner). Dette kan også gjenbrukes til å lage et kart, finne trender over tid, gi innsikt i hva slags folk som blir involvert i drapssaker, og også skrive mer tradisjonelle tekster, men som pepres med bakgrunnsinformasjon i form av lenker til ulike utsnitt av databasen (se eksempel). Mer data i databasen gir desto flere utsnitt, vinkler, sikkerhet i statistiske analyser, sjanser til å påpeke når vi snakker om ekstraordinære tilfeller, belegg for argumenter osv.

Når begynner din avis eller din redaksjon med strukturert journalistikk?

Evans’ prosjekt starter mellom to stoler. Det har helt klart potensielle kommersielle muligheter for denne typen systemer, og tydelige journalistiske muligheter. Det er bare ikke så lett å få disse til å begge spille ut på samme tid, og om explaain blir en software som redaksjoner kan kjøpe, eller som et crowdsourcings-verktøy online, eller som en ny produserende journalistisk aktør, er fremdeles uklart.

Det som derimot synes ganske tydelig, er at selve ideen explaain bygger på, en journalistikk som blir bedre, større, sterkere jo mer den publiserer, ideen som strukturert journalistikk eller databasejournalistikk, er altfor god til at den forblir et konsept for nedlagte startup-bedrifter. Om explaain.com er aktøren som knekker nøtta, og finner den rette modellen for hvordan denne ideen kan få et publikum og en bedriftskultur rundt seg, gjenstår å se. I mellomtiden får vi bare vri hjernene våre etter måter dette lar seg gjøre på, for tiden når aviser ikke lenger er morgendagens innpakningspapir for fisk kommer snarere enn vi har trodd. La oss håpe ideen om strukturert journalistikk kan sikre at journalistikkens korttidsminne overtas av et redaksjonelt kollektivt minne før vi alle trenger et læringskort for å slå opp hva papiravis er.

]]>
Radiohistorien kommer nærmere https://voxpublica.no/2015/08/radiohistorien-kommer-naermere/ Fri, 28 Aug 2015 09:33:22 +0000 https://voxpublica.no/?p=15197 Nostalgien vellet ikke opp i meg, ei heller ble jeg grepet av en sår lengsel etter det gode, gamle 80-tallet. Men autentisiteten i radioklippene jeg snublet over i Nasjonalbibliotekets NRK-arkiv, er det ingenting å utsette på.

Jeg var på jakt etter valgkampinnslag, og fant to som hver på sin måte oppleves som representative for perioden.

I det første, fra 6. august 1985, rapporteres det fra et valgmøte med statsminister Kåre Willoch på Hitra. Willoch advarer i kjent stil mot økning i offentlige utgifter.

I det andre, fra 4. august 1989, sier Fremskrittspartiets formann Carl I. Hagen i et intervju at vi i “vår sosialistiske velferdsstat” må endre lover og regler slik at vi “belønner de som står på og er skikkelige”, i motsetning til f.eks. alenemødre og andre som, sier Hagen, velter regningen for valg de tar over på andre mennesker.

Dette er to av ca. 40000 klipp fra NRKs radioarkiv som nå kan lyttes til via Nasjonalbibliotekets åpne nettarkiv. Klippene er spredt over en periode fra 1930 til i fjor. Dette er imidlertid bare 3 prosent av hele arkivet, som omfatter over 1,3 millioner klipp. For å lytte til de øvrige klippene, må man oppsøke Nasjonalbiblioteket fysisk.

Radiostemmer bak en Kurer i mai 1965: F.h. Kjell Thue, Johan Vigeland, Jon Anders Helseth.

Radiostemmer bak en Kurer i mai 1965: F.h. Kjell Thue, Johan Vigeland, Jon Anders Helseth.

Radioarkivet — den åpne delen — er også tilgjengelig for IT-utviklere via et programmeringsgrensesnitt (API). Det har vi benyttet oss av i Vox Publica. Radioarkivet er en av tre nye eksterne kilder vi har lagt til på temasidene våre. Det var på temasidene om henholdsvis “valgkamp” og “Carl I. Hagen” at jeg fant de to nevnte åttitallsklippene.

Opphavsretten begrenser

Det er opphavsretten som begrenser den åpne tilgangen til arkivet. Avtalen med NRK gir Nasjonalbiblioteket rett til å publisere programmer der NRK har alle rettigheter.

“Dette ekskluderer flertallet av programmene, der det forekommer musikk, teater, hørespill, opplesning, kåseri, foredrag som det ikke er skrevet avtaler om nettpublisering av. Kanskje ca 10 prosent av programmene slipper gjennom dette nåløyet,” opplyser seniorrådgiver Karl Erik Andersen i Nasjonalbiblioteket (NB) i en e‑post.

Arbeidet med å identifisere programmer som kan publiseres pågår fortsatt. Andersen opplyser at de nå går i gang med året 1960. Til nå er bare et fåtall innslag fra 1960- og 70-tallet publisert, så det åpne arkivet vil vokse med flere klipp framover. “Tiårene vi nå går løs på, har betydelig flere program å vurdere,” sier Andersen.

Dagsnytt-sendinger merkes automatisk for publisering. Nyhetssendinger vil med andre ord være overrepresentert i nettarkivet.

1,3 millioner klipp høres mye ut, men langt fra hele radiohistorien er tatt vare på, forteller bibliotekar Birgit Stenseth.

– I starten av NRKs historie hadde de ikke råd til å bevare alt. Tapene var så dyre at de ble spilt over igjen og igjen. Så sent som på 1960-tallet er det bare 25 prosent av radiomaterialet som er bevart, sier Stenseth. Først fra 1. januar 1986 er alt materiale bevart.

Radioinnslagene har to hovedkilder, opplyser Andersen. Den ene er programmer og innslag som har blitt bevart og beskrevet av NRKs arkivavdeling. Den andre er opptak som NRK har levert til Nasjonalbiblioteket etter at loven om pliktavlevering trådte i kraft i 1990. Mellom 1990 og 2004 ble opptakene levert på fysiske formater (magnetbånd, CD osv.). Fra slutten av 2004 leverer NRK materialet som lydfiler over nett.

“Vi har konvertert en del fra fysisk format til filer, men har mye igjen,” forteller Andersen.

Bare på 1990-tallet ble det levert 249000 programmer til NB. Det åpne arkivet inneholder til nå 11167 filer fra dette tiåret.

Slik kommer, eller kryper, radiohistorien nærmere, men Andersen skulle gjerne sett en løsning på opphavsrettsbegrensningen — som altså holder hundretusener av klipp unna det åpne nettet:

“Det er å håpe at vi en gang i framtida får avtaler som lar oss publisere alle programmene, slik at vi slipper å vente til 70 år etter at alle rettighetshavere er døde!”

(Red. anm: Artikkelen ble oppdatert 23. august 2017 med en presisering: Alt materiale fra radioarkivet er bevart fra 1. januar 1986).

]]>
Hvorfor utdanner vi journalister som ikke kan programmere? https://voxpublica.no/2015/08/hvorfor-utdanner-vi-journalister-som-ikke-kan-programmere/ Mon, 17 Aug 2015 08:36:28 +0000 https://voxpublica.no/?p=14888 “Data, kode og programmering må på pensum”, skriver VGs digitalredaktør Ola Stenberg på Medier24 (og på bloggen sin). Han påpeker at vi opererer i et medielandskap der det er et tydelig skille mellom teknologiaktørene og journalister, og at det er på tide å skape sanne journalist-teknolog-hybrider som lager journalistikk med solid forståelse for hvordan og hvorfor teknologien deltar i samfunnet og livet vårt.

Folka som Stenberg etterspør, og deres kompetanse, vet vi en hel del om, og vi formidler også kunnskapen ut. Dette er folk vi kaller datajournalister (muligens midlertidig – distinksjonen forsvinner kanskje med tiden?). Det er en tydelig trend at det er denne typen folk redaksjonene ønsker seg (f.eks. søkte Aftenposten etter “digitale hoder” og NRK “digitale historiefortellere”, osv). Folk som både “har journalistisk teft” og teknisk innsikt nok til faktisk å lage digitale produkter selv. Det var deres virke og deres posisjons potensial jeg skreiv min avhandling om.

Gjennom årene som stipendiat konkluderte jeg med det samme som Stenberg: ekspertkunnskap innen datateknologi er en kjempefordel for journalister, og uunnværlig for neste generasjons gravende journalistteam. Dette er en naturlig konsekvens av at samfunnets infrastruktur digitaliseres. Hvis vi ønsker at noen skal se den etter i sømmene, holder det ikke med folk som kan bruke teknologi, lese av målinger og loggføringer, men folk som kan kritisk analysere den selv. Når datamengdene blir store, er kode og programmering enkelt og greit eneste framgangsmåten som muliggjør dette. Det er den “viktige” journalistikken. Men også i den “gøye” journalistikken trenger vi disse folka: det er de samme ferdighetene som skal til for å lage interaktive visualiseringer, kartløsninger, applikasjoner som lar deg sammenlikne forholdene der du bor mot andre steder, osv – en blanding av teknisk ferdighet og nysgjerrig kritisk blikk med en dash sans for spennende brukeropplevelser. Se f.eks. på vinnerne av årets NODA-priser. Ting går i riktig retning.

Prosjektet #sporet fra Berlingske gjør omfattende bruk av dataanalyse og var en av vinnerne av NODA-pris 2015. (skjermbilde fra b.dk)

Prosjektet #sporet fra Berlingske gjør omfattende bruk av dataanalyse og var en av vinnerne av NODA-pris 2015. (skjermbilde fra b.dk)

Men det var jo også sant at “data, kode og programmering” var en innlysende vei framover for journalistikken for 10 år siden (2005). Og observert av en av datajournalistikkens pionerer, Philip Meyer – som anbefalte journalister å lære seg å programmere i 1973, i førsteutgaven av boka Precision Journalism, som jeg selv anser som en klassiker. Det finnes eldre eksempler, men folk som gikk journalistikkhøyskolen i 1973 er dagens førtidspensjonister og “digitaliseringen av samfunnet” som konsept var ennå ikke funnet på.

Avslutningsvis kommer jeg til å gi et kvalifisert blikk inn i neste generasjons journalistikkutdanning ved Universitetet i Bergen, men før det ønsker jeg å tygge litt på, og spekulere litt i, hvorfor vi i dag snakker om “digital kompetanse” som etter-utdanning for journalister. Hvorfor har ikke mediehusene ansatt, utdanningsstedene utdannet og journalister og studenter lært seg dette?

Første tanke — samfunnet reproduserer seg selv

Mediehusene har tradisjonelt ansatt samfunnsvitere og humanister — fra hvit middelklasse – som igjen ansetter folk som likner på seg selv (se Jan Fredrik Hovden for mer presis forskning på journalistikk og kultursosiologi). Dette er et menneskelig trekk som må jobbes med (det er et flott kapittel om hvordan Google aktivt og bevisst motarbeider dette i “How Google Works”, anbefales!).

Utdanningsstedene består av mennesker som forsker på journalistikk eller av tidligere praktiserende som går inn som lærere for neste generasjon. Det som er viktig for dem, er å levere fremragende forskning på feltet, og/eller å undervise i den journalistikk-kunnskapen som gjorde at de fikk en plass på et universitet eller høyskole. Utskiftningen av fast ansatte på universiteter og høyskoler er lav, folk trives og blir lenge (se f.eks. dette innlegget i debatten).

Også studenter arver ideer, og ferske studenter har ikke det samme bildet i hodet av en journalist som tekno-journalistikk-nerder som Stenberg og meg, de har sine tanker og idealer for journalistikken som var.

Ingen av disse tingene taler for raske endringer.

Når folk kvoteres inn et sted, er det for å veie opp for slike effekter, og få en mer representativ eller balansert sammensetning. Hva med å kvotere på fagkunnskap i nyhetsredaksjoner? Maks N hum/sam-ere pr realist? Eller operere med en journalist-til-programmerer-ratio?

Andre tanke – er nyhetsredaksjoner et sted der den teknisk flinke trives best på jobben?

I digitaliseringen av nyhetsredaksjonene har teknologi vært sett på som en trussel, og det har tidvis skapt arbeidsmiljø der tekniske ferdigheter ikke har gitt noen spesiell status som journalistisk metode.

Da jeg leste meg gjennom litteraturen på teknologi og journalistikk, var dette noe jeg irriterte meg over personlig: den journalistiske kulturen har tidvis vært direkte fiendtlig mot de folka den trengte så sårt. Dette tok jeg selvsagt med meg inn igjen i redaksjonene på turné i norske redaksjoner sammen med Joakim Karlsen, og fikk til svar at den tiden i hovedsak er over. Heldigvis.

Det er også et faktum at det ikke har vært nødvendig med tekniske fag eller realfag for å få jobb i en nyhetsredaksjon. Disse fagene har typisk høye opptakskrav, og ansees som vanskelige (og dessverre ok å ikke kunne). Journalistikkutdanning er også vanskelig å komme inn på, men har ikke realfag eller tekniske fag som inntakskriterier (som er fundamentet for “data, kode og programmering”) – fram til nå. Hvorfor stresse med matte når du kan chille med latte?

En teknolog-type har typisk kunnet heve høyere lønn andre steder enn i en nyhetsredaksjon. Jeg vet ikke hva en teknologisk orientert journalist tjener, men jeg håper han (for det er svært få damer som gjør dette i Norge) i dag er kompensert på en slik måte at redaksjonene kan holde på og bygge en solid kultur rundt den teknologiske kompetansen de har.

Enda en trend som har vært skadelig, er outsourcing og sentralisering. Jeg snakker nå om outsourcing av tekniske tjenester i redaksjonene. Teknisk drift i norske redaksjoner ble for bare noen år siden både outsourcet og sentralisert. Dette var med på å skape et tydelig skille mellom teknologer og journalister, som ikke lenger delte kantine eller møttes ved samme kopimaskin. Det har helt sikkert sett lurt ut på strategimøter over et Excel-ark, men det sikret samtidig at veien til teknisk kompetanse ble enda litt lenger i redaksjonene. Noen av de aller mest spennende data-jobbene (med enorme muligheter for datajournalistikk) i Norge må da være hos Schibsteds finn.no, og ikke i Schibsteds Aftenblad? Her har noe viktig gått i journalistikkens disfavør.

Tredje tanke – datajournalister er helt annerledes enn journalist-generalister

Datajournalistikken representerer en spesialisering, hvor journalistutdanningene så langt har utdannet generalister. En journalist skal både kunne gjøre research, intervjue, filme, klippe, fotografere, skrive, osv. Dette er den forrige stereotypen for journalistikkstudiene – det var dette redaksjonene pleide å ønske seg. Det er også en del variasjon i bransjen om hva man ønsker at en journalist skal lære gjennom høyere utdanning, utover at de skal være “komplette” og “selvgående”.

Det er ikke slik at alle journalister nå skal programmere, men redaksjonene er allerede fulle av folk som ikke gjør det – så Stenberg må få rett i at de som skal inn burde kunne det. Vi kan kanskje si at vi er på vei bort fra generalisten, og at også journalistikken blir langt mer spesialisert?

Veien videre

Ola Stenberg skriver:

Hvis ikke utdanningene tar grep nå vil de uteksaminere kandidater som ikke er gjeldende. Det vil blant dem være et skille mellom journalistikk og teknologi, og ingen som har et slikt skille vil overleve i den digitale fremtiden. Da ender vi opp med at mediehusene ansetter helt andre folk.

Utdanningene tar grep. Jeg vet ikke hva de tradisjonelle journalistikkprogrammene gjør, og kan kun snakke for det miljøet jeg tilhører. De grepene som gjøres er å legge om journalistikkutdanningen i en mer moderne retning. Dette betyr mer workshops foran kollokvier og auditorium-undervisning. Det betyr større moduler som består av små enkelt utbyttbare workshops, tema-pakker og prosjektoppgaver som gjør at det er enklere å få inn pensum og kunnskap som endrer seg raskt. Det betyr også at “data, kode og programmering” kommer på pensum, men at det gjøres i kontekst av en journalistikkutdanning på journalistikkens premisser, og ikke blir en informatikkutdanning. Dette er noe vi, som et sammenslått institutt mellom mediefag og informasjonsvitenskap, har svært gode forutsetninger for – og konkrete planer om å sette i verk i Media City Bergen.

Samfunnet trenger ikke bare å utdanne journalister som kan kode. Vi trenger å utdanne nysgjerrige, kritiske og reflekterte journalister. Journalister som også er selv-kritiske, og ser at journalister med teknologibakgrunn er underrepresentert i redaksjonene og at bransjen nok også burde rekruttere fra andre utdanninger enn bare journalistikk. Dermed får Stenberg rett to ganger i samme sitat: (1) at journalister bør utdannes til å hanskes kritisk med teknologi uten alltid å være avhengig av en ekstern ekspert, og (2) at mediehusene også burde ansette helt andre folk for å sikre et mer diversifisert og kvalifisert blikk på samfunnet og pressens rolle i det.

Det ligger mange utfordringer foran oss, og vi har en skjev ballast, men for en digital nysgjerrigper i en nyhetsredaksjon har forutsetningene neppe noen gang vært bedre — og dem kommer det flere av.

]]>