Du måste aktivera javascript för att sverigesradio.se ska fungera korrekt och för att kunna lyssna på ljud. Har du problem med vår sajt så finns hjälp på http://kundo.se/org/sverigesradio/
Digitala insatsstyrkan

NICAR: Första dagen

Publicerat onsdag 15 oktober 2014 kl 12.40
En sal fylld av människor. Texten säger Nicar Dag 1.
Dag ett handlade bland annat om digitala kartåkningar, visualiserad data och frågorna varje producent bör ställa. Foto: Marcus Eriksson, SR

Niklas:

Google Earth (pro)
Konferensen kickar igång efter den inledande frukosten vi haft tillsammans med andra internationellt tillresta deltagare.
Som sig bör inleds det hela med diverse strul vad det gäller internetuppkoppling och krashade datorer. Har dock med arbetsdatorn med den vanliga "Google Earth"-versionen installerad. En klar fördel som "Google Earth Pro"-versionen visar sig ha jämfört med den vanliga "Google Earth"-versionen är att den har en inbyggd moviemaker där man kan spara ut sina förprogrammerade flygturer. Detta är definitivt något vi ska införskaffa och utforska mer. När sessionen väl kommer igång så har vi en snygg flygtur över Jacksonville, Florida, klar på 5 minuter. Om man sedan använder sin utsparade video från Google Earth Pro så kan man i andra program som Adobe AfterEffects berika sin video än mer med grafiska element och ge publiken en väldigt bra upplevelse av det man vill visa.

Packaging data stories for digital
Under denna panel demonstreras flertalet olika sätt att visualisera en story med mycket material. Precis som i föregående konferenspass strular uppkoppling mot internet vilket sinkar tempot och flowet. Det visualiseringsexempel som Richard Watkins ger om vilka delar i filmer som faktiskt hänt på riktigt och dom som inte har det tycker jag känns rolig och kan vara användbar att använda i visualiseringar av data som är tidsbestämd.

OpenRefine
I denna "Hands-on"-sessionen fick vi lära oss hur man använder verktyget OpenRefine (som tidigare hette Google refine) för att jobba och städa stökig data. Efter att OpenRefine laddats ned och installerats pa datorn sa körs programmet lokalt i en webblasare på datorn (via ip-adress 127.0.0.1).

En första lärdom är att alltid ta en kopia på det data du vill jobba med och sedan jobba med kopian så originaldatat inte påverkas.

OpenRefine har många förinstallerade matchningsmönster för att rensa och klustra ihop dubletter i data bla. särskrivningar, bindestreck osv. Det som imponerar mest på mig är att exempelvis yrken på olika språk som "ENGINEER" och "INGENIEUR" hittas som matchande, till tillsammans med att yrken som också skrivits in i exempelvis singular eller plural också hittas. En stor styrka som OpenRefine också visar sig ha är dess preview-läge där man ser vad som anses matcha och vilken effekt den operation man tänker göra får för resultat.

Förutom många sätt att jobba med data finns också flertalet exportmöjligheter såsom, excel, csv, html och json.

Presentation och material som användes under denna session finns på https://github.com/gebelo/training2017

Analyzing satellite imagery with Google Earth Engine
I denna session används Googles Earthengine (earthengine.google.com) och dess onlinebaserade utvecklingsmiljö för att ta fram sattelitfoton.
Det finns i dagsläget hela 5 petabyte sattelitdata att använda sig av.
Ett vanligt förekommande sätt att visa skillnader på saker med hjälp av sattelitbilder är att använda sig av en bildslider med före/efter scener där publiken själva får testa att dra fram och tillbaka för att se vad som händer.

Att använda mycket satellitbilder känns dock snabbt väldigt expert-användaraktigt och lämnar publiken själv att leta fram och upptäcka intressanta ting.
Ett bra alternativ till detta är tillverka exempelvis videos eller gif-bilder som visar publiken direkt det som är mest intressant.
Den onlinebaserade utvecklingsmiljön som tillhandahålls känns trevlig, särskilt med tanke på den inbyggda sökmöjligheten bland inbyggda funktioner som finns för att skräddarsy de sattelitbilder man önskar.
Mer bra info från denna session finns på: bit.ly/geecar17

How to build VR interactives using Digital Elevation Model (DEM) data and Three.js
Det var kul att gå på denna nya uppdaterade session om VR-interaktivitet jämfört med den som hölls på förra årets Nicar i Denver, känns som det kommer mer och mer bra funktioner vad det gäller interaktivitet i 3D-miljöer för webben.

En av de mest intressanta funktionerna som demas är de kontrollfunktioner som finns för att användaren själv kan förflytta sig fritt inom den 3D-värld man byggt upp.

Detta tillsammans med funktionen för göra skillnad i både presentation och upplevelsen för användaren beroende på om denne använder en handhållen respektive stationär enhet känns kraftfullt.

En intressant sak som också nämns i år är det att den output man från Googles EarthEngine ( earthengine.google.com ) också ska gå att exportera och sedan importera hit till three.js och göras om till interaktiva 3D-världar.

Karolina:

Packaging data stories for digital med Atlanta Journal-Constitution, Washington Post och NPR
http://ire.org/events-and-training/event/2702/3046/
AJC visade upp en undersökning om läkare som begår sexuella övergrepp som de valt att visualisera som en serietidning.
http://doctors.ajc.com/about_this_investigation/

NRP visade en undersökning de gjort om elever som inte har engelska som förstaspråk, och pratade lite om hur de tacklar att inte
bli ombedda att göra grafer hela tiden. 'Sometimes we get approached for charts that don't need to be charts. Then you have to not be afraid to say 'this can be a sentence'.'

Både jag och Niklas gick på en crash-course i OpenRefine, ett väldigt kompetent gratisverkyg för att rensa data. 

Alyson Hurt på NPR Visuals visade verktyget hon byggt som NRP skapar diagram i, och Sergio Hernandez, CNN och Matt Stiles, WSJ, berättade hur de modifierat det för sina behov.

Frågestunden efteråt kom mer att handla om pym.js, ett framework Alison varit med och skrivit som löser problemet med att använda iframes på responsiva sidor.
Det fanns otroligt mycket kärlek för det lilla scriptet, som visade sig heta pym efter Ant-Man.
http://blog.apps.npr.org/2014/05/27/dailygraphics.html

The first 100 days in data http://ire.org/events-and-training/event/2702/3039/ handlade främst om hur man får fram data från myndigheter i USA.

Michael Corey på Reveal visade ett gräv de gjort tillsammans med NPR som visar var det redan finns en mur mot Mexico, information som visade sig vara väldigt svårt att få fram -
och deras lösning blev helt enkelt att sitta och leta på Google Maps och Streetview.

Margaret Janz från University of Pennsylvania berättade om det projekt hon är med i som 'räddar' data på nätet som riskerar att försvinna.
Intressant dragning och en inblick i hur mycket information man kan få från myndigheter i USA - men just därför kunskap som är svår att applicera i Sverige.

Vi fick tips om ett verktyg som notifierar en när innehållet på en webbsida har ändrats - https://newsklaxon.org/.

Marcus:

Eftersom vi ofta samarbetar med redaktioner från Sveriges Radios alla hörn är det inte sällan vi behöver mötas och samarbeta med kollegor som vi inte sitter tillsammans med. Torsdagens första dragning för mig hette "Working together without sitting together".

Slack var kommunikationsverktyget som lyftes fram mest. Och vikten av att medarbetare på distans hela tiden syntes på huvudredaktionen - något som kan lösas med videolänk som ligger uppe på en skärm hela arbetsdagen. Slutligen lyftes vikten av tydliga policydokument för teamet, än viktigare när man inte ses dagligen. 

Här finns exempel på inspirerande måldokument för team från Julia Smith från INN, The institute för nonprofit news: http://github.com/INN/docs

 
När du presenterar en granskning digitalt som innehåller en hel del data, finns det såklart tusentals vägar att gå i en visualisering; grafer, färgglada cirklar, diagram och staplar m.m. 

Ett inspirerande sätt att engagera publiken är att använda sig av interaktivitet. En artikel jag fastnade särskilt för presenterades av Ashlyn Still @aschlynstill från Reuters.

Interaktiv nyhetsartikel med quiz-element: ”Shielded by the law” – The Seattle Times 

Klicka runt själv i den här artikeln ovan! Särskilt intressant att ställa frågor likt en quiz för att komma vidare till svaret med ytterligare interaktiva möjligheter.

Att ta fram egen data och dra vattentäta slutsatser i en journalistisk granskning kan vara snårigt. Det finns många fällor och vanliga misstag. Men det finns många bra praktiska tips och frågeställningar för att slippa dra missvisande slutsatser som den granskade parten kan slå ner på.

Bra lärdomar förmedlades av Jennifer Forsyth, @ForsythJenn från The Wall Street Journal: 

Jenn Forsyths lista med kontrollfrågor att ställa vid datainsamling och analys av data.

 

 

Grunden i vår journalistik är trovärdighet och opartiskhet. Sveriges Radio är oberoende i förhållande till politiska, religiösa, ekonomiska, offentliga och privata särintressen.
Har du frågor eller förslag gällande våra webbtjänster?

Kontakta gärna Sveriges Radios supportforum där vi besvarar dina frågor vardagar kl. 9-17.

Du hittar dina sparade avsnitt i menyn under "Min Lista".