Ett initiativ från Utgivarna med stöd av Nordic AI Journalism.

Under vintern 2023/2024 samlades representanter från 13 svenska medieföretag för en workshopserie. Vår gemensamma kunskapsutveckling summerades genom ett antal rekommendationer på hur AI-transparens bör ta form i den svenska mediebranschen.

Utgivarnas AI-grupp var styrgrupp till projektet, och Utgivarnas Juristgrupp gav feedback på utkast av rekommendationerna.

Rekommendationerna överlämnades till Utgivarnas styrelse den 26/2 2024.

Här kommer en sammanfattande version, för hela rapporten se:

https://www.nordicaijournalism.com/ai-transparency

Projektgrupp bakom arbetet:

  • Agnes Stenbom (projektledare), Schibsted
  • Annie Lidesjö, NTM
  • Calle Sandstedt, Omni
  • Camilla Hillerö, NTM
  • Charlotta Friborg, SVT
  • Emil Hellerud, TV4
  • James Savage, The Local
  • Johan Möller, UR
  • Johan Silfversten Bergman, Svenska Dagbladet
  • Karolina Westerdahl, Expressen
  • Louise Sköld Lindell, Göteborgs Posten
  • Maria Kustvik, NTM
  • Martin Ekelund, TV4
  • Martin Jönsson, Bonnier News
  • Martin Schori, Aftonbladet
  • Mattias Pehrsson, Bonnier News
  • Mikaela Åstrand, SVT
  • Olle Zachrison, Sveriges Radio

Med stöd av Utgivarnas styrelse
Ordinarie styrelseledamöter:

  • Anne Lagercrantz (ordförande), SVT
  • Thomas Mattsson (vice ordförande), TU
  • Kerstin Neld (vice ordförande), Sveriges Tidskrifter
  • Viveka Hansson (vice ordförande), TV4
  • Hanna Stjärne, SVT
  • Cilla Benkö, SR
  • Christofer Ahlqvist, TU
  • Johan Taubert, TU
  • Jessica Wennberg, TU
  • James Savage, Sveriges Tidskrifter
  • Kalle Sandhammar, UR
  • Mathias Berg, TV4

Suppleanter:

  • Anna Careborg, SVT
  • Mimmi Karlsson-Bernfalk, TU
  • Anders Enström, TU
  • Åsa Junkka, TU
  • Cissi Elwin, Sveriges Tidskrifter
  • Unn Edberg, Sveriges Tidskrifter
  • Michael Österlund, SVT
  • Sofia Wadensjö Karén, SR
  • Margaretha Eriksson, UR
  • Fredrik Arefalk, TV4
  • Johanna Thulin Bratten, TV4
  • Åsa Rydgren, Utgivarna (adjungerad)

Bakgrund

Tillsammans kan vi främja öppenhet och ansvarstagande kring AI-användning inom och bortom den svenska mediebranschen.

Under Utgivarnas paraply initierades ett projekt med det övergripande syftet att ge mediepubliken förutsättningar att förstå när, hur och varför AI implementeras i svenska redaktionella medier med stöd av Agnes Stenbom (Schibsted) och Olle Zachrison (SR), grundare av branschnätverket Nordic AI Journalism.

Fokus i detta projekt har varit transparens gentemot mediepubliken, med ett specifikt fokus på hur svenska medier informerar våra användare om bruk av AI i våra redaktionella medieprodukter. Detta är en kunskapsutvecklande process och kommer att följas upp av Utgivarnas styrelse.

Följande frågor har legat till grund för vår gemensamma kunskapsutveckling:

  • Om vad och när bör vi vara transparenta kring AI?
  • Hur och var behövs transparens kring AI-vändning?

Våra principiella rekommendationer kring AI-transparens berör övergripande värderingar och riktlinjer.

Våra praktiska rekommendationer är mer konkreta och föreslår specifika åtgärder för att uppfylla principerna i praktiken.

Sammanfattningsvis är vår hållning att mediepubliken ska kunna lita på att innehåll som publiceras av redaktionella medier anslutna till det medieetiska systemet alltid är publicistiskt säkrat.

Vi delar här de sju rekommendationer om AI-transparens i svenska medier.

Rekommendationerna är frivilliga att följa, och bör anpassas efter de enskilda redaktionella förutsättningarna. De gäller främst nyhets- och magasinsjournalistik.

SAMMANFATTNING AV REKOMMENDATIONERNA

Principiella rekommendationer:

  1. AI med en betydande inverkan på journalistiken kräver transparens.
  2. Övriga AI-arbetsverktyg behöver ej informeras om.
  3. AI-transparens måste ses som ett iterativt tema.

Praktiska rekommendationer:

  1. Var specifik med vilken form av AI-verktyg som tillämpats.
  2. Dela information i anslutning till konsumerat innehåll.
  3. Harmonisera branschens språkbruk kring generativ AI.
  4. Undvik visuell märkning av AI i redaktionella medier.

1. AI med en betydande inverkan på journalistiken kräver transparens

Liksom de medieetiska reglerna ger en grund för journalistiskt arbete, bör det finnas en tydlig riktlinje för när användningen av AI kräver transparens. Vi menar att “AI med en betydande inverkan på journalistiken måste hanteras med öppenhet och tydlighet gentemot publiken” kan vara en sådan. Principen är vägledande snarare än strikt definierad.

2. Övriga AI-arbetsverktyg behöver ej informeras om

Förutsatt att föregående princip efterlevs menar vi att offentlig information inte behövs för de flesta interna AI-tillämpningar, där tekniken används för att stötta i såväl redaktionellt som kommersiellt arbete. För användning av dessa gäller i stället interna policys om ansvarsfullt bruk av AI.

3. AI-transparens måste ses som ett iterativt tema

Många av de AI-tekniker som nu nyttjas i mediebranschen befinner sig i ett tidigt skede, under vilket det är nödvändigt att vara öppen och tydlig kring dess användning. Denna öppenhet kommer att behöva omprövas över tid i takt med att teknologin och användarnas vanor och förväntningar utvecklas.

Vi ser positivt på fortsatt branschdialog, och ser därtill ett stort behov för medieföretagen själva att ha en löpande intern dialog på temat. Vi ämnar därför att göra en uppföljning av våra rekommendationer om sex månader, för att utvärdera deras fortsatta relevans.

4. Var specifik med vilken form av AI-verktyg som tillämpats

Vi uppmuntrar redaktionella medieföretag att vara specifika när vi berättar för våra publiker vilken form av AI vi nyttjat. Tydlig och tillgänglig redovisning av AI-verktyg kan ha en pedagogisk funktion för både medieföretagen och mediepubliken, där vi avmystifierar begreppet AI och i stället kommunicerar om tekniken som just verktyg.

5. Dela information i anslutning till konsumerat innehåll

Där AI-transparens behövs bör information delas i anslutning till AI-implementationen. Genom att dela information i anslutning till konsumerat innehåll ger vi svenska mediekonsumenter en chans att själva förstå hur mycket (eller lite) AI som används med betydande inverkan på journalistiken. Rekommendationen gäller både AI som arbetsverktyg för generativ AI.

6. Harmonisera branschens språkbruk kring generativ AI

Vi rekommenderar en harmoniserad approach för beskrivning av AI inom och mellan de svenska medieföretagen. Detta motiveras huvudsakligen av att mediekonsumenterna får lättare att förstå och förhålla sig till AI i svenska medier om vi kommunicerar likartat kring användning. Som ett första steg rekommenderar vi ett harmoniserat språkbruk gällande generativ AI.

Som grund rekommenderar vi formuleringen “med stöd av” – detta för att signalera AI:s faktiska påverkan på innehållet, och påminna mediekonsumenten om att det finns en redaktionell process (och medarbetare) som tagit fram innehållet.

7. Undvik visuell märkning av AI i redaktionella medier

Vi avråder från standardiserad visuell märkning (t.ex. en ikon) för AI i redaktionella medier. Vi motiveras av tre huvudsakliga argument: En explicit visuell differentiering kan ge intrycket av att trovärdigheten i AI-genererat/påverkat innehåll över lag skiljer sig från innehåll som skapats av mänskliga journalister eller redaktörer.

Grunden måste alltid vara att om innehållet inte skulle vara trovärdigt skulle det inte publiceras av våra redaktionella medier. En visuell märkning kan vara svår att implementera konsekvent över olika medieplattformar och innehållstyper. Det riskerar bli en tungrodd process givet var vi befinner oss i AI-utvecklingen. Nya verktyg och användningsområden kommer att dyka upp längs vägen, och en visuell standard riskerar att snabbt bli irrelevant.

 

Rapport från nordisk tankesmedja: Skärp lagstiftningen mot techjättarna