Den onde, den gode och den övertygande
Teknik är allt som oftast ett tveeggat svärd, ett verktyg i förlängning av den person som håller i det och som kan användas för bra och dåliga syften. Låt oss kika på några olika tillämpningar som baseras på samma teknologi.
AI i trollfabriken
"AI i trollfabriken" låter kanske som en mysig barnsaga men sanningen är tyvärr dystrare. Kalla fakta avslöjade nyligen hur Sverigedemokraterna använder sig av trollfabriker för att sprida vilseledande information och att de använt AI för att manipulera klipp på Magdalena Andersson.
Det är inte första gången vi ser AI-teknik användas i skadliga syften och det är definitivt inte den sista. Deepfakes och andra typer av bedrägerier är här för att stanna och jag tror att det är viktigt att kunskapen och förståelsen för detta höjs i hela samhället samtidigt som de som äger och skapar teknik tillsammans med politiker samverkar för att försvåra, förebygga och straffa skadligt och brottsligt beteende. Det görs redan en del på den här fronten men det är arbete som behöver göras löpande. Två aktuella exempel är EU:s AI Act och företag som skriver under på gemensamma säkerhetsstandards.
AI agerar ögon för blinda och synskadade
Be my eyes är ett danskt startupbolag som skapat en teknologi för de över 250 miljoner människor i världen som är blinda eller synskadade. Via deras app kopplas användarna samman med volontärer för att få hjälp med hundratals vardagliga uppgifter, såsom att identifiera en produkt eller navigera på en flygplats. Nu har de börjat implementera virtuella volontärer i projektet "Be my AI", ett AI-stöd som enligt företaget ger deras användare ett effektivt verktyg som möjliggör för dem att vara mer självständiga i sin vardag.
Jag tycker att det här exemplet är intressant ur två perspektiv. Dels hur tekniken möjliggör för användarna att få stöd utan att vara beroende av någon annan person. AI-teknik har visat sig vara väldigt effektivt när det handlar om att förstå och översätta olika språk. Dessutom kan en virtuell volontär vara tillgänglig 24 timmar om dygnet, vilket gör det lätt för användaren att få hjälp utan att tidpunkt och språk blir en barriär. Samtidigt ser jag att en stor del av appens idé handlar om ett mellanmänskligt möte som även skapar ett värde för de personer engagerar sig. Så här sammanfattar en volontär sitt engagemang i en artikel i The Guardian.
Be My Eyes är en möjlighet för alla att hjälpa blinda eller synskadade personer, men kanske är en bättre beskrivning av denna upplevelse välgörande ömsesidighet. Jag hjälpte en man att göra ett mellanmål på natten, men han hjälpte mig genom att låta mig känna mig nyttig.
Det är tydligt att samtalet gynnar både användaren och volontären. Därför blir jag nyfiken på hur företaget resonerar kring sina volontärer, som sedan starten uppgår till 6,4 miljoner personer. Idag säger företaget att i de fall där den virtuella volontären inte kan ge tillräckliga svar ska användaren få möjlighet att kopplas till en verklig person istället.
För mig är inte det här en fråga om AI vs. ingen AI. Det viktiga är snarare att organisationer med många volontärer bestämmer vad som ska vara förstahandsvalet. Ska en virtuell volontär svara när en mänsklig inte kan, eller ska en mänsklig volontär svara när en virtuell volontär inte kan?
Ett övertygande botemedel mot konspirationsteorier
För några veckor sedan fick jag tips om två intressanta studier via Ethan Mollicks utmärkta nyhetsbrev One useful thing.
Den första studien handlar om hur AI, särskilt stora språkmodeller som GPT-4, kan användas för att övertyga människor i diskussioner. Forskare ville undersöka hur bra AI är på övertalning jämfört med människor, och om AI blir ännu bättre på detta om den har tillgång till personlig information om motståndaren. Resultaten visade att deltagare som debatterade mot GPT-4 och där AI hade tillgång till personlig information, hade 81,7% högre sannolikhet att bli mer överens med AI:n jämfört med de som debatterade mot människor. Utan personlig information var AI fortfarande bättre på att övertyga än människor, men skillnaden var inte statistiskt signifikant.
Den andra studien handlar om att konspirationsteorier, som är svåra att förändra när de väl har anammats, kan motbevisas med hjälp av AI. Forskarna testade om tidigare försök att korrigera dessa teorier misslyckats eftersom de inte var tillräckligt övertygande och personligt anpassade. I experimentet använde de AI (GPT-4) för att ge välargumenterade och personligt anpassade motbevis till totalt 2,190 personer som trodde på olika konspirationsteorier. Resultaten visade att en debatt med AI minskade tron på konspirationsteorier med cirka 20%. Effekten höll i sig över två månader och syntes även hos personer med starka och djupt rotade konspirationsteorier. Dessutom minskade tron på andra, icke-relaterade konspirationer och ökade deltagarnas vilja att ifrågasätta andra konspirationsteoretiker.