☕ Är kaffe nyckeln till en ansvarsfull AI-framtid?
Nya verktyg. Nya lagar. Nya riktlinjer. Nya poddar. Nya artiklar. Nya bra exempel. Nya dåliga exempel. Nya profeter. Nya despoter. Nya nyhetsbrev.
Jag börjar tjata ut mig själv varje gång jag ser mig själv skriva att AI-utveckligen rusar fram, men det går inte att komma ifrån att den faktiskt gör det. För att hänga med i utvecklingstakten är det lätt att känna behovet av återkommande svepning av kvadrupla espressos.
Skämt åsido, jag tror ärligt talat att kaffe kan spela en viktig roll i arbetet med AI. Inte i första hand som en koncentrationshöjare, utan snarare genom de mötesplatser som bra kaffepauser skapar. Tid och rum att dela anekdoter, nyheter och perslonliga reflektioner. Utrymmen för att stöta och blöta normer och kultur.
I arbetet med AI finns det många saker att tänka på och flera perspektiv att ha i åtanke. I synnerhet när det handlar om att säkerställa att vi gör det på ett rättvist, ansvarsfullt och långsiktigt hållbart sätt. Även här stavas svaret KAFFE! Nej, jag menar inte drycken – utan min egenhändigt ihopsnickrade akronym som kan användas för att börja tänka kring det egna ansvaret för AI. Jag har ägnat många kaffekoppar åt att läsa, tänka och prata med personer om ämnet och landat i fem viktiga områden:
Kunskap om din data och AI,
Ansvar,
Förmåga,
Finansiering och
Eldsjälsoberoende.
1. Kunskap om din data och AI
Kunskap om hur din data ser ut och på vilket sätt den är insamlad samt om hur AI-system fungerar och hur de är tränade är avgörande för att kunna förstå begränsningar, identifiera fördomar (bias) och förhindra felanvändning. Utan denna förståelse riskerar vi att missa när systemen fungerar fel och förlitar oss på felaktiga resultat, vilket kan leda till negativa konsekvenser.
Varför?
Brist på kunskap kan leda till felanvändning av AI-system och manifesteras vanligen genom missriktad problemdefinition, vilket ofta innebär att den data som används i träningen inte är rätt, relevant eller tillräcklig för att lösa det utpekade problemet (se exemplet om Amazon nedan).
2. Ansvarig
Ansvar innebär att säkerställa att det finns tydliga riktlinjer för vem som är ansvarig när AI-system orsakar skada. Detta ansvar kan vara både juridiskt och moraliskt och behöver tydligt definieras för att undvika oklara ansvarsfördelningar.
Varför?
Att fastställa ansvar är kritiskt i komplexa AI-system där flera aktörer är involverade, som i fallet med självkörande bilar eller algoritmiska beslutsfattande system, där ansvarsbedömningen blir svår. Vem riskerar att straffas när det blir fel?
3. Förmåga
Förmågan att förstå, använda och kontrollera AI-system är en förutsättning för att utnyttja teknologins potential på rätt sätt och samtidigt minimera riskerna för oavsiktliga skador. Det är viktigt att organisationer skapar förmåga i organisationen att arbeta med AI-lösningarna. Alla behöver inte kunna allt men det är viktigt att de som är involverade förstår tillräckligt för att vara trygga i sina roller och ansvar.
Varför?
Om användarna inte har tillräckligt med tid eller stöd att förstå AI-systemets funktioner, kan detta leda till felaktiga beslut, systematiska fel och att brister inte upptäcks i tid eller överhuvudtaget.
4. Finansiering
Tillräcklig finansiering är nödvändig för att utveckla robusta och ansvarsfulla AI-system. Utan resurser riskerar vi att system byggs på svag grund med undermålig data eller teknologi. I budgetarbetet ska inte bara utvecklingstimmar täckas utan det är viktigt att skapa utrymme för att ta fram processer för att hantera beslut, ansvar och feedback. Det är även viktigt att involvera de personer som kommer att påverkas av implementeringen, oavsett om de är beslutsfattare, användare eller slutmålgrupp.
Varför?
Brist på finansiering kan leda till att organisationer tar genvägar i utvecklingen av AI-system, vilket i sin tur kan skapa felaktiga resultat, ojämlikhet eller diskriminering.
5. Eldsjälsoberoende
Att skapa AI-system som är oberoende av enskilda eldsjälar är viktigt för att säkerställa långsiktig hållbarhet och för att undvika beroende av specifika individer eller grupper.
Varför?
Om AI-system blir för beroende av enskilda experter kan deras kunskap gå förlorad när dessa lämnar organisationen, vilket kan leda till driftstörningar och ineffektivitet.
En sista slurk
Det är min starka övertygelse att vi med KAFFE i systemet är bättre rustade att bygga ett AI-samhälle där vi inte bara tar ansvar för viktiga frågor om säkerhet och rättigheter utan också skapar bättre, smartare och mer effektiva AI-lösningar.
Kaffe i all ära, men en minst lika viktig funktion utgörs av TE-älskarna. Det är de som säger Tänk Efter, och som tvingar KAFFE-älskarna att redogöra för sina resonemang och utmanar dem att hitta brister och att göra förbättringar.
För att mjölka ut det sista av den här kaffeanalogin (tack för att ni har stått ut så här länge ❤️) så vill jag betona att det, precis som med kaffe, inte räcker med en kopp vid ett enda tillfälle. Vi behöver regelbundna kaffepauser med våra team, IT-leverantörer och med nya såväl som gamla kollegor för att kunskapen ska föras vidare och för att det ska bli en naturlig del av arbetskulturen kring AI.