Nyhetsapplikasjoner - Vox Publica https://voxpublica.no/tag/nyhetsapplikasjoner/ Magasin om demokrati og ytringsfrihet Thu, 18 Jan 2018 10:25:44 +0000 nb-NO hourly 1 Det beste fra Norden: nyhets­ap­pli­ka­sjo­ner og datajournalistikk https://voxpublica.no/2016/04/resurser-nyhets%c2%adap%c2%adpli%c2%adka%c2%adsjo%c2%adner-og-datajournalistikk/ Mon, 25 Apr 2016 10:34:19 +0000 https://voxpublica.no/?p=15695 Årets #noda, nordisk datajournalistikkonferanse, er just ferdig i Helsinki og for tredje gang ble det det ut pris for Nordens beste datajournalistikk. Det var i år 53 kandidater som kjempet om æren, og VG stakk av med prisen i to av fire kategorier.

Årets konkurranse hadde en ny kategori, beste mobile datajournalistikk, som den finske allmennkringkasteren YLE vant med en ny leken Tinder-variant på det gamle valgomat-konseptet. SVT tok prisen for beste applikasjon med visualiseringen Flyktingströmmar till EU, mens VG altså tok prisene for både beste undersøkende journalistikk og beste feature. De norske ofrene er et gigantisk arbeid, og identifiserer både hvem og hvor nordmenn gav sitt liv i andre verdenskrig.

Skjermbilde fra VGs prisvinnende prosjekt om de norske ofrene i 2. verdenskrig.

Skjermbilde fra VGs prisvinnende prosjekt om de norske ofrene i 2. verdenskrig.

Alle datajournalistikkprosjekter er sårbare for dataråte, så vi får krysse fingrene for at VG klarer å holde denne i live lenge, så vel som at Nasjonalbiblioteket eller liknende finner en god måte å ta vare på arbeidet til VG inn i fremtiden.

Det var VGs nedlasterne som tok prisen for undersøkende journalistikk. Det er gøy å se at gjengen i VG år etter år leverer store gode tunge dataprosjekter, de har tydeligvis et godt maskineri for å få til denne typen journalistikk. Blant de nominerte finner vi også Sunnmørsposten, Bergens Tidende og innsyn.no (FVN) fra Norge. Dagbladet, Stavanger Aftenblad, NRK, TV2 og Adresseavisen hadde også arbeider påmeldt. Alle de nominerte arbeidene kan studeres på konferansens nettsider, og også på nodabase.net hvor eksempler på god datajournalistikk samles av NXT Media.

Flere godbiter

Når vi først er på ressurs-samlinger med datajournalistikk, så har vi også en oppdatering. I 2010 lagde vi en liste over innovativ og spennende datajournalistikk presentert som nyhetsapplikasjoner. Nå har vi fått tak i en ny oppdatert liste fra Joakim Karlsen, høyskolelektor ved Høgskolen i Østfold og forfatter av flere artikler om datajournalistikk og fagfeltet mellom teknologi og historiefortelling. Listen er ispedd noen ekstra godbiter, f.eks. Jonathan Strays nye bok om data for journalister og den svært matnyttige “Quartz guide to bad data”.

Karlsen forteller at det er en tydelig smitteeffekt på hvilke formater som velges, slik at etter at New York Times lagde sin berømte Snowfall, så finner vi i nå i ettertid en hel mengde slike “snowfalls”. Dette ser ut til å være en mote, som alle hopper på og lager til det er over-brukt. Ellers er det fortsatt, som vi også ser i noda-nominasjonene, de største redaksjonene som leder an, samtidig som det er tydelig at faget fortsatt er veldig personavhengig. Det er “guruer” der ute som ofte fungerer som hjørnestein i prosjekt etter prosjekt, og som etter resultatene å dømme leder fagfeltet ved i stor grad personlig å definere hva og hvordan ting skal gjøres.

Portal-sider:

Saker:

Og enda noen godbiter for den gryende datajournalist

]]>
Når databaserte nyheter blir partiske https://voxpublica.no/2013/01/nar-databaserte-nyheter-blir-partiske/ Mon, 07 Jan 2013 09:17:00 +0000 https://voxpublica.no/?p=9706 Tenk på Google News. Da tjenesten ble lansert i 2002 var den et av de første forsøkene på å samle inn og personalisere nyheter med algoritmer — det vil si med prosedyrer som skritt for skritt og systematisk behandler informasjon. Google skrøt til og med av det på hjemmesiden: “Denne siden ble laget utelukkende med datamaskinalgoritmer, uten menneskelige redaktører. Mennesker ble verken skadet eller brukt i arbeidet med denne siden.”

Google News-algoritmens kriterier for å rangere og gruppere nyhetsartikler er publiseringshyppighet, kilde, aktualitet, sted, relevans og mangfold. Millioner av ganger om dagen bruker Google News-algoritmen disse kriteriene til å ta redaksjonelle avgjørelser.

Likevel, i den systematiske bruken av beslutningskriterier kan algoritmen skape skjevheter som ikke synes opplagte, gitt programmeringen av den. Det kan være lett å gi etter for feilslutningen om at fordi datamaskinalgoritmer er systematiske, så må de på et vis være mer “objektive”. Men det er faktisk slike systematiske skjevheter som er de mest lumske, siden de ofte går ubemerket hen.

Selv roboter kan være partiske.

Enhver beslutningsprosess, enten menneskelig eller algoritmisk, om hva som skal tas med, ekskluderes eller vektlegges — prosesser Google News har mange av — har potensial til å skape skjevheter. Det interessante med algoritmer er at beslutningskriteriene som er tilgjengelige for algoritmen kan synes harmløse, men samtidig føre til resultater som oppleves som partiske eller med slagside.

Enhver skjevhet i dataene som algoritmen fores med blir med på lasset

Et eksempel: Hvis den ikke programmeres spesielt for det, vil ikke Google News-algoritmen ta parti når den plukker representative artikler om en lokal valgkamp — tjenesten er grunnleggende upartisk. Men et av kriteriene for å velge ut artikler er “publiseringsfrekvens”. Det kan virke nøytralt — men hvis en av kandidatene i valgkampen gjennomgående får litt mer mediedekning (altså høyere “publiseringsfrekvens”), kan det kriteriet få Google News’ utvalg til å virke partisk.

Algoritmer kan mangle semantisk grunnlag til å kunne forstå mer avanserte begreper som stereotypier eller rasisme. Hvis de enkle og målbare kriteriene algoritmene bruker til å ekskludere informasjon fra synlighet på en eller annen måte korrelerer med for eksempel kløfter mellom folkegrupper, kan de se ut som at de har en slagside mot en folkegruppe.

Enkle beslutningskriterier som leder til komplekse avgjørelser om å inkludere og ekskludere er en måte som partiskhet og skjevhet, ofte uforvarende, kan vise seg i algoritmer. Andre mekanismer som kan skape skjevheter i nyhetsdekningen kan illustreres med en særlig viktig informasjonsprosess — oppsummeringen.

Oppsummering av virkeligheten

På en måte dreier nyhetsrapportering seg egentlig om å oppsummere virkeligheten. Du kan innvende: “Det dreier seg også om å fortelle en historie!” — og det vil du ha rett i, siden lite er kjedeligere enn en tørr oppsummering. Men før historien kan fortelles må reporteren ta beslutninger om hvilke hendelser som skal tas med, hva slags bakgrunnsinformasjon som trygt kan utelates, og hva som bør vektlegges som virkelig viktig. Alt dette har potensial til å farge historien. Reportere observerer verden og avdekker mye informasjon, for så å gjøre et håndterbart utvalg som er tilpasset tiden og oppmerksomheten publikum har til rådighet. Dette er å oppsummere.

Oppsummering er viktig fordi tid og oppmerksomhet er to av råvarene som definerer vår epoke. Mange av oss ønsker eller trenger ikke kjenne til intrikate detaljer i hver nyhetssak; ofte nøyer vi oss gjerne med et kjapt overblikk over en hendelse. Dette behovet for å optimere oppmerksomhet og redde oss fra informasjonsflommen driver fram nyskaping innen behandling og oppsummering av informasjon, i redaksjonelle vurderinger så vel som i nye datamaskinalgoritmer.

Gründerbedriften Circa i San Francisco arbeider med en app for redaksjonelle vurderinger som oppsummerer hendelser som serier av “punkter” eller faktabiter. Redaktører samler inn “fakta fra et mangfold av kilder” og gjør dem om til “konsise, lettleste “punkter” i Circa”, slik appens hjelpesider beskriver konseptet. Nå legger Circa selv mindre vekt på oppsummering og mer på historiefortelling. De knytter de konsise “punktene” sammen i en sekvens som bygger en historie. Tilnærmingen deres er drevet av redaktører og er selvfølgelig utsatt for alle de ulike måtene som skjevhet og partiskhet kan oppstå i en redigeringsprosess, inkludert både individuelle og organisatoriske preferanser.

Din daglige nyhetsmeny har antakelig blitt påvirket av mange ulike algoritmer

Men hva om Circa begynte å bruke algoritmer som istedenfor å basere seg på redaktører, tok automatiske avgjørelser om hvilke punkter de skulle ta med eller utelate? Da kunne de begynne å likne mer på London-baserte Summly, som har en ny lese-app med “algoritme-genererte sammenfatninger fra hundrevis av kilder”. Summly velger de “viktigste” setningene fra en artikkel og presenterer disse som oppsummering. Men hvordan kan denne algoritmen begynne å lage skjevheter i historiene den produserer, for eksempel gjennom definisjonen av “viktig”? Er det for eksempel tenkelig at algoritmen i en sak om den israelsk-palestinske konflikten kunne velge ut setninger på en disproporsjonal måte slik at den ene sidens syn vektlegges tyngre enn den andres?

Kanskje vil vi aldri få vite hvordan Summlys algoritmer kan skape skjevheter i oppsummeringene den lager; den er en proprietær og lukket teknologi. Det understreker behovet for åpenhet om algoritmer. Ved å studere mer åpne forsøk som forskningsbaserte prosjekter kan vi lære mye om hvordan algoritmer for oppsummering virker og kan skape skjevheter.

Jeg snakket med Jeff Nichols ved IBM Research, som har bygget et system (pdf) for å oppsummere sportsarrangementer basert kun på Twitter-meldinger (tweets) folk skriver om dem. Sportsinteresserte Nichols begynte å plotte inn mengden av tweets om kampene under VM i fotball i 2010. Han så at mengden økte på visse tidspunkter, og brukte sin ad hoc-metode til å finne de mest spennende øyeblikkene i en kamp slik at han kunne spole fram til dem på sin videoopptaker. Mengden tweets øker naturlig ved spennende hendelser, særlig scoringer.

Deretter begynte Nichols og hans team å spørre vanskeligere spørsmål om hva slags oppsummeringer de faktisk kunne lage på bakgrunn av Twitter-materialet. De endte opp med å lage et system som kunne behandle alle tweets om en kamp, finne toppene i tweet-aktivitet, velge ut representative nøkkel-meldinger fra disse hendelsene, og spleise dem sammen til korte oppsummeringer. Når lesbarhet og grammatikalsk nivå ble sammenlignet, viste det seg at tekstene laget med algoritmen var av tilsvarende kvalitet som manuelt produserte oppsummeringer basert på det samme Twitter-materialet.

Manuell eller maskinell oppsummering — hvilken er best?

IBM-systemet viste likevel at en spesiell type skjevhet kan snike seg inn i algoritmer:

Enhver skjevhet i dataene som algoritmen fores med blir med på lasset helt fram til det ferdige resultatet. Algoritmen er partisk til fordel for “de som skriker høyest”, ifølge Nichols, siden den relativt enkle algoritmen finner relevante tweets ved å lete etter frekvensen av nøkkelord på engelsk. Implikasjonene er ganske klare: Hvis Slovenia scorer et kontroversielt mål mot USA, kan algoritmen rapportere at “USA ble ranet”, hvis det er den dominerende reaksjonen i engelskspråklige tweets. Men antakelig vil ikke slovenere som tvitrer om hendelsen være enig. De vil sannsynligvis melde noe sånt som “Fint mål — der fikk dere den, USA!” (på slovensk, selvfølgelig). Nichols er interessert i å tilpasse algoritmen for å ta hensyn til ulike perspektiver og generere bevisst partiske oppsummeringer fra ulike synsvinkler (kan bli en vinner i amerikanske kabel-tv-nyheter!).

Når de skal ta avgjørelser om hva som skal inkluderes i eller ekskluderes fra en oppsummering, må algoritmer vanligvis gå gjennom et skritt der informasjon prioriteres. Ting med lavere prioritet blir ekskludert. IBM-systemet er for eksempel rettet inn mot høydepunkter i idrettsbegivenheter. Dette fungerer hvis målet er å finne de mest spennende delene av en kamp, som får mye oppmerksomhet. Men det er andre interessante historier som bobler like under terskelen for “høydepunkter”. Hva med midtstopperen som spilte solid i forsvar, men aldri gjorde en enkeltprestasjon som ga mange nok tweets til å bli oppdaget av algoritmen? Denne delen av kampen, eller historien, ville bli utelatt.

IBM-algoritmen ikke bare prioriterer informasjon, men må også gjøre utvalg basert på ulike kriterier. Noen av disse valgene kan også kodes inn slik at programmererne hjelper algoritmen med å gjøre valg (heuristikk). For eksempel har IBM-systemets programmerere forhåndsbestemt at algoritmen skal foretrekke lengre framfor kortere tweets til oppsummeringene, siden de kortere meldingene pleier å være mindre lesbare setningsfragmenter. Det er helt klart en avgjørelse som kan forsvares, men Nichols innser at det også kan skape en skjevhet: “Å utelate kommentarer fra folk som har en tendens til ikke å skrive fullstendige setninger kan kanskje ekskludere en lavere utdannet del av befolkningen”. Kriterier valgt av programmerere for utvalg og prioritering kan korrelere med andre variabler (som utdanningsnivå) som kan være viktige når partiskhet og skjevheter i mediedekning skal vurderes.

Optimering, rangering, aggregering

Oppsummeringen er bare én type informasjonsbehandling som kan systematiseres i en algoritme. Din daglige nyhetsmeny har antakelig blitt påvirket av mange ulike algoritmer allerede før du har begynt å konsumere nyhetene. Algoritmer for personalisering som dem som brukes av Zite, en populær applikasjon for å lese nyheter, tilpasser systematisk innhold til dine interesser, på bekostning av å eksponere deg for et større mangfold av saker. Social Flow, en gründerbedrift i New York, bruker algoritmer for optimering for å finne ut det nøyaktige tidspunktet for når det er best å dele nyheter i sosiale nettverk slik at de får maksimalt gjennomslag hos målgruppen.

Optimeringsalgoritmer kan også bli brukt (pdf) til å bestemme layouten av en nyhetsside. Men å optimere layout basert på ett kriterium, som antall sidevisninger, kan ha utilsiktede konsekvenser, som at skandaler og kjendisnyheter alltid havner øverst på siden. Også her kan valget av hvilke aspekter man vil optimere og hva de er korrelert med, ha betydning.

Algoritmer for rangering er annen type som er mye brukt i nyhetssammenheng. Tenk på listene over “toppsaker” på de fleste nettaviser, eller hvordan kommentarer blir rangert, eller til og med på hvordan Twitter rangerer trender. Særlig Twitter-trender har kommet i søkelyset etter at hendelser som folk trodde ville dukke opp på listen over trender, som #occupywallstreet eller #wikileaks, ikke viste seg. I likhet med Summly er ikke Twitter åpne om algoritmen de bruker til å identifisere trender. Det gjør det vanskelig å vurdere hvilke systematiske skjevheter som er innebygd i algoritmen og om heuristikk eller menneskelige valg innlemmet i den også kan spille en rolle.

Forskere jobber med hvordan du kan bli eksponert for nyheter på en nyttig måte

Google bruker også rangeringsalgoritmer til å sortere søkeresultatene dine. I dette tilfelle er rangeringsalgoritmene utsatt for den samme typen skjevhet til fordel for “de som skriker høyest” som vi hørte om fra Nichols. Internett er fullt av firmaer spesialisert på søkemotoroptimalisering som prøver å lure Googles algoritme slik at visse typer innhold vil vises høyt oppe i søkeresultatene selv om det kanskje ikke fortjener å være der. Dette gjør de delvis ved å knytte visse nøkkelord til nettstedet de ønsker å dytte oppover på listen over søkeresultater, og ved å lage hyperlenker fra mange andre nettsteder til dette nettstedet. Andre prøver å manipulere søkerangeringer. Professor Takis Metaxis ved Wellesley College og hans kollega Eni Mustafaraj har skrevet om “googlebombing”. Her skaper man koblinger mellom politiske aktører, som George W. Bush, og negative søkeord, som “håpløs fiasko”, slik at personen dukker opp når noen søker på denne frasen. Dette er et perfekt eksempel på hvordan skjevheter i data som en algoritme fores med kan føre til skjevheter i resultatet. Og når dataene algoritmen fores med er offentlige, ligger algoritmen åpen for manipulasjon.

Ikke alle typer skjevheter og partiskhet i algoritmer må være skadelig. Hvis algoritmer kunne skape en motvekt til individuell og tankemessig partiskhet vi alle bærer i oss, kunne det ha en positiv effekt på informasjonen vi blir eksponert for. Ved Korea Advanced Institute of Science and Technology (KAIST) har Souneil Park og hans samarbeidspartnere eksperimentert med algoritmer for innsamling av nyheter som fores inn i en nyhetspresentasjon kalt NewsCube (pdf). Denne leder brukeren til å forholde seg til et større mangfold av perspektiver. Glem å overlate ting til tilfeldighetene — forskere jobber med hvordan du kan bli eksponert for nyheter på en nyttig måte. Richard Thaler og Cass Sunstein kaller i sin bok Nudge denne formen for innflytelse for “libertariansk paternalisme” — å påvirke erfaringer for å korrigere for kognitive mangler i menneskers resonneringsevne. Ikke bare kan algoritmer skape skjevheter i innholdet vi konsumerer — en dag kan de kanskje gjøre det på en måte som gjør oss smartere og mindre utsatt for våre egne tankemessige brister. En algoritme kunne kanskje til og med sakte dytte ekstremister mot midten ved å eksponere dem for stadig mer moderate versjoner av deres egne ideer.

Algoritmer finnes over alt i nyhetene som omgir oss, enten det er i oppsummeringer, personalisering, optimering, rangering, koblinger, klassifisering, aggregering eller en annen algoritmisk informasjonsprosess. De er allestedsnærværende, og det gjør det verdt å reflektere over hvordan disse prosessene kan bidra til systematisk manipulasjon av informasjonen vi konsumerer, enten det er gjennom heuristikk, dataene de fores med, eller kriteriene som brukes til å hjelpe dem med å ta beslutninger om å inkludere, ekskludere og vektlegge.

Algoritmer vil alltid måtte ta ikke-tilfeldige avgjørelser om inkludering, ekskludering og vektlegging i mediene våre for å hjelpe oss å løse vårt problem med knapp tid og oppmerksomhet. Vi kan ikke på magisk vis gjøre algoritmer “objektive” ved å forstå hvordan de forårsaker skjevheter i mediene. Men vi kan lære oss å bli mer kritiske når vi bruker databaserte medier. Særlig datajournalister burde gjøre det til en vane å tenke grundig over hva bivirkningene av algoritmene de lager kan være og hva som kan korrelere med kriteriene de bruker for å ta avgjørelser. I neste omgang bør vi være åpne om disse bivirkningene på en måte som hjelper publikum til å bedømme kvaliteten på det vi gjør.

Artikkelen ble først publisert av Nieman Journalism Lab. Oversatt av Olav Anders Øvrebø.

]]>
Nyhetsapplikasjoner på web: Hvem, hva, hvordan? https://voxpublica.no/2010/10/nyhetsapplikasjoner-pa-web-hvem-hva-hvordan/ https://voxpublica.no/2010/10/nyhetsapplikasjoner-pa-web-hvem-hva-hvordan/#comments Thu, 14 Oct 2010 05:00:24 +0000 https://voxpublica.no/?p=4525 Noen journalister skriver artikler, andre skriver dataprogrammer. I den siste kategorien er nok de som lager webapplikasjoner i flertall. En webapplikasjon er et dataprogram som kjører i nettleseren. Enkelte slike benyttes til å formidle nyheter. I dette innlegget viser jeg eksempler på slike nyhets-webapplikasjoner. Nederst på siden finner du en liste over eksempler, fordelt på land.

Gå rett til listen.

Hva lages?

En av hovedårsakene til å samle på lenker til nyhetsapplikasjoner er for å finne ut hva som lages. Hvilke områder har redaksjoner funnet relevante, viktige nok, spennende nok til å lage nyhetsapplikasjoner om? Hva finnes?

Vi har eksempler på interaktive visualiseringer (statsbudsjett, arbeidsløshet), sanntids sensordata (skipstraffik), stedfesting av informasjon på kartet (GSM-baser, kildesortering, gift i fiskeoppdrettsnæringen), analyseverktøy brukeren selv kan benytte (verdens beste land, Manning Meter, Taxi Flow, valgresultater), ikke-lineær historiefortelling (broderskapet, flykjøp-simulator), monitorering av folkevalgte (buskerudbenken, theyworkforyou) og så videre. Det er neppe mulig å beskrive ulike typer i gjensidig utelukkende kategorier, da de aller fleste inneholder trekk fra hverandre. Det finnes sannsynligvis også uhorvelig mange ulike typer!

Fokus på kart

Fra USA er ’crime maps’, eller kriminalitetskart, en etablert sjanger, med tidlige eksempler som chicagocrime.com (nå everyblock). Chicagocrime var et av de første eksemplene på en mashup basert på Google Maps, dette selv før Google Maps fikk et API.

Også i Norge har vi etter hvert sett løsninger med kart. F.eks. NRKs Kulturminner under press eller TV2s Her kan oppdrettsanleggene bruke gift. Om lag havparten av eksemplene samlet inn så langt benytter kart.

Hvem lager dem?

Store redaksjoner som nrk.no, nytimes.com og bbc.co.uk har laget og samlet sine newsapps slik at er lette å finne igjen. Dette gjør at disse finnes langt flere ganger i listen enn mange andre. Det sagt; listen inneholder over 30 ulike avsendere, og det er ikke avgjort at de store er bedre.

Fordelingen mellom ulike land er ujevn. USA, Norge og Storbritannia utgjør nesten hele listen. Dette har først og fremst med språkforståelse å gjøre, men også med lesevaner. Kjenner du noen gode eksempler fra andre land? Si fra, så legger jeg dem til.

Det er ikke bare nyhetsredaksjoner som lager webapplikasjoner. Også andre som formidler nyhets-aktig, eller nyhets-verdig informasjon er interessante. Slike tilfeller ligger litt på siden av tema her, men det er spennende å se hvilke aktører som nærmer seg dette feltet. Eksempler på dette er interesseorganisasjoner som ønsker å bli hørt (IFPRIs 2010 Global Hunger Index), design- og teknologiselskaper som ønsker å bli brukt av pressen. Borgerjournalister er så langt ikke representert, men den gruppen er det også rimelig å finne.

Teknologi

Nesten 40 prosent av prosjektene i listen er laget i ren flash. Utover det er det stort sett javascript som gjelder. Et eksempel er en java-applet, men denne er fra Many Eyes, og altså ikke skrevet i en redaksjon. Å bruke tjenester som Many Eyes senker helt klart terskelen for å lage ”datajournalistikk”, men det gjør også redaksjonen avhengig av eksterne servere og minsker kontrollen over utseende og oppførsel på nyhetsapplikasjonene. HTML5, som det er knyttet en viss forventning til med tanke på mer spennende presentasjon av multimedialt innhold på web, finnes så langt ikke i listen, dog kanskje denne tidslinjevisningen fra AP.org kunne tenkes å kvalifisere.

Datakilder

Litt over halvparten av listen er bygget på data fra et nasjonalt statlig arkiv eller andre typer data fra statlige institusjoner. Det er altså en betydelig andel som ikke er laget på offentlige data. Data fra webtjenester som Twitter og Netflix er enkle å identifisere, men der er også data fra kultursektoren som Melodi grand prix, private selskaper som har delt data, sports- og økonomitall, interesseorganisasjoner (miljøvern), Wikipedia og WikiLeaks.

Noen applikasjoner samler inn data fra brukerne, i ulike variasjoner av crowdsourcing. Dette har det vært en del snakk om, men i skrivende stund kjenner jeg kun til tre eksempler fra nyhetsredaksjoner. Vet du om flere?

Avgrensninger

TV2 har en desktopapplikasjon med nyhetsoppdateringer, NRK har streaming video og lyd, og stadig får flere og flere nyhetsredaksjoner applikasjoner til mobiltelefoner og lesebrett. Formodentlig utvikles de fleste av denne typen teknologiske hjelpemidler utenfor redaksjonene, eller i egne IT-avdelinger. Da en journalist og en teknolog snakker relativt ulike språk og har ulike faglige idealer, er det nettopp overlappingen som fascinerer, og derfor jakter jeg på produkter som formidler nyheter, der journalisten selv, eller journalisten i samarbeid med en programmerer, har skrevet kode for å formidle nyhetene. Listen inneholder dog en del grensetilfeller.

Sist oppdatert: 16 nov okt 2010. (102 stk)

Nyhetsapp-listen

Hjelp!
Vet du om noen som ikke er med? Legg igjen en kommentar under, så legger vi den til. Målet er å finne så mange ulike typer og gjennomføringer som mulig, for en best mulig beskrivelse av hvem, hva, hvor og hvordan om datajournalistikk og nyhetsapplikasjoner.

]]>
https://voxpublica.no/2010/10/nyhetsapplikasjoner-pa-web-hvem-hva-hvordan/feed/ 15