Ett nytt forum, kaffe som lösningen på allt och dåliga exempel
Visa i webbläsare
AI Sweden Logo

AI for Impact

Kaffe och civilsamhällets roll för ansvarsfull AI

I takt med att AI-teknologin utvecklas i en allt snabbare takt står vi inför avgörande frågor om ansvar, etik och hållbarhet. Hur kan vi som samhälle säkerställa att AI används på ett rättvist och transparent sätt, samtidigt som vi främjar innovation?

 

Svaret ligger inte enbart hos techbolag eller myndigheter – civilsamhället har en avgörande roll att spela. I det här nyhetsbrevet vill jag lyfta hur vi genom det nya initiativet Civilsamhällets forum för ansvarsfull AI vill stärka organisationers förmåga att hantera AI på ett etiskt och hållbart sätt. Vi dyker även djupare i hur vi kan skapa en framtid där ansvarsfull användning av AI är självklar – kanske stavas svaret kaffe?

 

Innehåll

🤝 Vad är civilsamhällets roll för ansvarsfull AI? 

☕ Är kaffe nyckeln till en ansvarsfull AI-framtid?

🧠 Tre tips om ansvarfull AI

😬 Ett gäng dåliga exempel

📅 Kommande event

Porträtt -Carl Norling Markai

Carl Norling Markai, Impact Initiative Developer

🤝 Vad är civilsamhällets roll för ansvarsfull AI? 

I takt med att AI spelar en allt större roll i samhället, ställs frågor om ansvar, etik och rättvisa på sin spets. För att möta dessa utmaningar har vi startat Civilsamhällets forum för ansvarsfull AI, ett initiativ som samlar tolv nyckelpersoner från civilsamhället för att utveckla riktlinjer för en etisk och hållbar användning av AI.

 

Forumet är en del av projektet AI for Impact, finansierat av Google.org, och syftar till att stärka civilsamhällets roll i att säkerställa att teknologin används på ett ansvarsfullt sätt. Genom samarbete och expertis vill vi adressera de unika utmaningar och möjligheter som AI för med sig för organisationer inom civilsamhället.

 

Kunskap, samverkan och riktlinjer i fokus

Den 5 september arrangerade vi den första workshopen med forumet och lade grunden för det kommande arbetet. Deltagarna i workshopen identifierade flera perspektiv kring AI i civilsamhället och i diskussionerna lyftes bland annat vikten av att öka kunskapen om AI och hur det påverkar organisationer. Flera personer betonade vikten av utbildning och kompetensutveckling. Samverkan var ett annat återkommande tema, där samarbeten inom civilsamhället och med andra sektorer anses nödvändiga för att hantera AI-relaterade utmaningar. 

Etiska aspekter och behovet av riktlinjer och policyer för AI-användning lyftes, med särskilt fokus på inkludering, mänskliga rättigheter och risker som diskriminering och allvarliga felbeslut. De områden som skapar otrygghet kring AI relateras till bristande kontroll, snabba tekniska förändringar och risken att AI förstärker ojämlikheter i samhället. 

 

Forumet kommer att träffas återkommande under hösten 2024 och våren 2025. Även om vi endast har avklarat en sjättedel av arbetet ser jag personligen med spänning fram emot de insikter och slutsatser som forumet kommer att landa i. 

Läs mer om forumet och medlemmarna
Forumet_Gul

☕ Är kaffe nyckeln till en ansvarsfull AI-framtid?

Nya verktyg. Nya lagar. Nya riktlinjer. Nya poddar. Nya artiklar. Nya bra exempel. Nya dåliga exempel. Nya profeter. Nya despoter. Nya nyhetsbrev.

 

Jag börjar tjata ut mig själv varje gång jag ser mig själv skriva att AI-utveckligen rusar fram, men det går inte att komma ifrån att den faktiskt gör det. För att hänga med i utvecklingstakten är det lätt att känna behovet av återkommande svepning av kvadrupla espressos.

Skämt åsido, jag tror ärligt talat att kaffe kan spela en viktig roll i arbetet med AI. Inte i första hand som en koncentrationshöjare, utan snarare genom de mötesplatser som bra kaffepauser skapar. Tid och rum att dela anekdoter, nyheter och perslonliga reflektioner. Utrymmen för att stöta och blöta normer och kultur. 

 

I arbetet med AI finns det många saker att tänka på och flera perspektiv att ha i åtanke. I synnerhet när det handlar om att säkerställa att vi gör det på ett rättvist, ansvarsfullt och långsiktigt hållbart sätt. Även här stavas svaret KAFFE! Nej, jag menar inte drycken – utan min egenhändigt ihopsnickrade akronym som kan användas för att börja tänka kring det egna ansvaret för AI. Jag har ägnat många kaffekoppar åt att läsa, tänka och prata med personer om ämnet och landat i fem viktiga områden:
Kunskap om din data och AI,

Ansvar,

Förmåga,

Finansiering och

Eldsjälsoberoende.

 

1. Kunskap om din data och AI

Kunskap om hur din data ser ut och på vilket sätt den är insamlad samt om hur AI-system fungerar och hur de är tränade är avgörande för att kunna förstå begränsningar, identifiera fördomar (bias) och förhindra felanvändning. Utan denna förståelse riskerar vi att missa när systemen fungerar fel och förlitar oss på felaktiga resultat, vilket kan leda till negativa konsekvenser.

 

Varför?
Brist på kunskap kan leda till felanvändning av AI-system och manifesteras vanligen genom missriktad problemdefinition, vilket ofta innebär att den data som används i träningen inte är rätt, relevant eller tillräcklig för att lösa det utpekade problemet (se exemplet om Amazon nedan).

 

2. Ansvarig

Ansvar innebär att säkerställa att det finns tydliga riktlinjer för vem som är ansvarig när AI-system orsakar skada. Detta ansvar kan vara både juridiskt och moraliskt och behöver tydligt definieras för att undvika oklara ansvarsfördelningar.

 

Varför?
Att fastställa ansvar är kritiskt i komplexa AI-system där flera aktörer är involverade, som i fallet med självkörande bilar eller algoritmiska beslutsfattande system, där ansvarsbedömningen blir svår. Vem riskerar att straffas när det blir fel?

 

3. Förmåga
Förmågan att förstå, använda och kontrollera AI-system är en förutsättning för att utnyttja teknologins potential på rätt sätt och samtidigt minimera riskerna för oavsiktliga skador. Det är viktigt att organisationer skapar förmåga i organisationen att arbeta med AI-lösningarna. Alla behöver inte kunna allt men det är viktigt att de som är involverade förstår tillräckligt för att vara trygga i sina roller och ansvar.

 

Varför?
Om användarna inte har tillräckligt med tid eller stöd att förstå AI-systemets funktioner, kan detta leda till felaktiga beslut, systematiska fel och att brister inte upptäcks i tid eller överhuvudtaget. 

 

4. Finansiering
Tillräcklig finansiering är nödvändig för att utveckla robusta och ansvarsfulla AI-system. Utan resurser riskerar vi att system byggs på svag grund med undermålig data eller teknologi. I budgetarbetet ska inte bara utvecklingstimmar täckas utan det är viktigt att skapa utrymme för att ta fram processer för att hantera beslut, ansvar och feedback. Det är även viktigt att involvera de personer som kommer att påverkas av implementeringen, oavsett om de är beslutsfattare, användare eller slutmålgrupp.

 

Varför?
Brist på finansiering kan leda till att organisationer tar genvägar i utvecklingen av AI-system, vilket i sin tur kan skapa felaktiga resultat, ojämlikhet eller diskriminering.

5. Eldsjälsoberoende

Att skapa AI-system som är oberoende av enskilda eldsjälar är viktigt för att säkerställa långsiktig hållbarhet och för att undvika beroende av specifika individer eller grupper.

 

Varför?
Om AI-system blir för beroende av enskilda experter kan deras kunskap gå förlorad när dessa lämnar organisationen, vilket kan leda till driftstörningar och ineffektivitet.

 

En sista slurk

Det är min starka övertygelse att vi med KAFFE i systemet är bättre rustade att bygga ett AI-samhälle där vi inte bara tar ansvar för viktiga frågor om säkerhet och rättigheter utan också skapar bättre, smartare och mer effektiva AI-lösningar.

 

Kaffe i all ära, men en minst lika viktig funktion utgörs av TE-älskarna. Det är de som säger Tänk Efter, och som tvingar KAFFE-älskarna att redogöra för sina resonemang och utmanar dem att hitta brister och att göra förbättringar.

 

För att mjölka ut det sista av den här kaffeanalogin (tack för att ni har stått ut så här länge ❤️) så vill jag betona att det, precis som med kaffe, inte räcker med en kopp vid ett enda tillfälle. Vi behöver regelbundna kaffepauser med våra team, IT-leverantörer och med nya såväl som gamla kollegor för att kunskapen ska föras vidare och för att det ska bli en naturlig del av arbetskulturen kring AI.

🧠 Tre tips om ansvarsfull AI

Ansvarsfull AI innebär att utveckla, implementera och använda AI-system på ett sätt som är etiskt, rättvist och transparent. Det handlar om att ta hänsyn till mänskliga värden, rättigheter och samhälleliga normer. Grundläggande aspekter av ansvarsfull AI inkluderar:

  • Rättvisa: Undvika och motverka fördomar (bias) i AI-system som kan leda till diskriminering eller orättvisa behandlingar av individer eller grupper.
  • Transparens: Säkerställa att AI-beslut och processer är begripliga och kan granskas av användare och samhället i stort.
  • Ansvarighet: Klargöra vem som bär ansvaret för AI:s handlingar och beslut, särskilt när dessa påverkar människor och samhällen.
  • Hållbarhet: Utveckla AI-lösningar som är långsiktigt hållbara och som stödjer sociala, ekonomiska och miljömässiga mål.

📻 Podcast: Responsible AI och smartare organisationer

📺 Video: AI i nationens Intresse - Ansvarsfull AI

🎓 Kurs: AI in Society

😬 Ett gäng dåliga exempel

När AI-utvecklingen inte tas på allvar och organisationer implementerar ogenomtänkta lösningar kan det få allvarliga konsekvenser. Här är några dåliga exempel:

 

Fördomsfull data

Amazons AI-system för rekrytering visade en tydlig bias mot kvinnor genom att nedvärdera ansökningar som innehöll ord relaterade till kvinnor. Systemet tränades på en dataset som speglade historiskt mansdominerade yrken, vilket förstärkte denna skevhet. Detta bryter mot principerna om rättvisa och inkludering, där AI bör tränas på representativ och balanserad data. Genom att inte adressera dessa bias i datainsamlingen misslyckades systemet med att vara rättvist och diskriminerade kvinnor på arbetsmarknaden. Amazon upptäckte det och AI-systemet lades ned.

Läs artikeln.

 

Brist på ansvar och insyn i beslutsfattandet

Den holländska regeringen använde en AI-modell för att upptäcka socialbidragsfusk, men algoritmen diskriminerade systematiskt minoritetsgrupper. Modellen bröt mot principen om ansvarsskyldighet och transparens, eftersom de drabbade inte kunde förstå eller ifrågasätta hur algoritmen fattade sina beslut. Detta skapade djupa sociala konsekvenser och misstro mot AI i offentliga tjänster, vilket visar hur en brist på mänsklig insyn och ansvarsskyldighet kan få förödande konsekvenser.

Läs artikeln

 

Otillräcklig kunskap om betygsdata

Algoritmen som användes för att sätta betyg i Storbritannien under pandemin ledde till oproportionerligt låga betyg för elever från mindre privilegierade områden. Den baserade betygen mer på skolans historiska prestationer än på individens faktiska förmåga, vilket innebar en brist på transparens och rättvisa. Algoritmen behandlade inte alla elever lika och favoriserade dem från bättre skolor. Misslyckandet här ligger i hur algoritmen var utformad och tränad på orättvisa data som inte reflekterade enskilda elevers prestationer.

Läs artkeln

    Sammanfattning

    Ansvarsfull AI handlar om mer än teknisk utveckling – det handlar om rättvisa, transparens och ansvar. AI har inga åsikter om mänskliga normer och värderingar. Det är vi människor som måste bestämma vad som är ansvarsfullt.

     

    Jag tycker också att det är viktigt att vi inte skrämmer upp oss i onödan när det kommer till ämnet "Ansvarsfull AI" utan försöker påminna oss om att vi dagligen tar del av komplexa system med svåra ansvarsfrågor och allvarliga risker. Tänk på hur många människor och organisationer som varje dag ser till att trafiken fungerar genom att veta sitt ansvar och ta det.

     

    Genom att dela kunskap, öka förståelsen och genom initiativ som Civilsamhällets forum för ansvarsfull AI är min förhoppning av vi kan ta viktiga steg mot att utrusta civilsamhället med verktyg och riktlinjer för att hantera AI:s möjligheter och risker.

     

    Har du en idé hur AI kan skapa nytta i organisationen? Samla relevanta kollegor och ta en ordentlig kafferast. Det kan bespara dig mycket huvudvärk i slutändan.

    Har du fått det här mejlet vidarebefordrat till dig och vill få nyhetsbrevet själv, prenumerera här:

    Prenumerera på AI for Impact

    Kommande event

    8 oktober: MUCF:s Kunskapskonferens där årets tema är AI och civilsamhället: utmaningar och innovativa lösningar. Läs mer och anmäl dig här.

      13 november: Konferensen Kraftsamling för AI i kommuner och civilsamhälle

        peter-van-der-meulen-EqtvTJ-ufnM-unsplash
        Alla event av AI Sweden

        Privacy policy

        ai.se  |  Linkedin  |  Youtube  |  My AI
         
        You're receiving this e-mail because you are a part of AI Sweden's network.
         

        AI Sweden

        c/o Lindholmen Science Park

        Box 8077

        402 78 Gothenburg

        Sweden

         

        Unsubscribe Manage Preferences