Den aldrig sinande hypen kring AI
Mitt i den tekniska utvecklingen är det ofta svårt att förstå vad som kommer att påverka oss mest på lång sikt. Då och då beskrivs en ny pryl som en ”game changer”. En del av innovationerna försvinner och glöms bort, medan andra faktiskt visar sig ha en stor inverkan på samhället eller enskilda människors liv.
Väldigt få av oss kan göra ett korrekt antagande om teknikutveckling på förhand, vilket bara är ett tecken på att vi är mänskliga. Så, kommer AI att ”förändra allt” när det gäller tillgänglighet, eller är det bara ännu ett modeord som ingen kommer att sakna?
Vid den senaste upplagan av M-enabling Summit, en årligen återkommande policy- och teknikorienterad global konferens med fokus på digital tillgänglighet, som drivs av FN-initiativet G3ict i Washington DC, hade AI smugit sig in i nästan varje programpunkt. Det är naturligtvis viktigt – inte minst på grund av den potentiella risk som AI kan innebära för personer med funktionsnedsättning. Många paneldiskussioner var riktigt bra, informativa och tankeväckande – men det är inte alla talare som har något briljant eller nytt att säga om AI. Efter ett tag blir diskussionerna förutsägbara.
Veckan före M-enabling ledde jag en workshop om AI och tillgänglighet i Bryssel, som en del av en studie som Digital Europe genomför på uppdrag av EU-kommissionen. Diskussionerna var bpde intressanta och relevanta, men de kan ha uttömt den del av min hjärna som fortfarande var öppen för nya perspektiv på AI:s potential.
En välsignelse och en förbannelse
Ett sätt att göra diskussionen lite mer konkret skulle kunna vara mer precision när vi talar om specifik implementation. Taligenkänning, till exempel, har många användningsområden och är redan allmänt spridd på marknaden. Vi kan alla tydligt se potentialen, men också problemen när det gäller små språkområden, tal- och språkskador, dialekt och personer med annat modersmål.
Ett återkommande ämne är möjligheterna till personliga inställningar och hur system/gränssnitt/webbläsare automatiskt kan förstå hur en specifik användare vill att information ska presenteras. Vid första anblicken kan det här låta som ett stort steg framåt för personer med funktionsnedsättning. Men inser folk de potentiella integritetsfrågor som följer av en sådan funktionalitet? Jag tror personligen att de flesta av oss, oavsett förmåga, klickar ”Ja” eller ”Ok” utan att läsa eller förstå det finstilta, i alldeles för många fall. Vem ska se till att slutanvändarna inte hamnar i en situation där inget försäkringsbolag vill ha dem som kunder på grund av att personlig information har ”läckt ut”?
”AI måste övervakas av människor”, ’AI-resultat måste kvalitetssäkras manuellt’ och liknande självklarheter hörs ofta i debatten. Men vad innebär den typen av mumbo-jumbo i verkligheten? Hur kan vi säkerställa att människor – som är lika ofullkomliga som all teknik – fattar bra beslut baserat på opålitliga källor?
Lär av de bästa – undvik det värsta
Om du bara har tid att läsa en källa rekommenderar jag att du tittar närmare på vad Jutta Treviranus, professor vid Inclusive Design Research Centre vid OCAD University i Toronto, Kanada, gör på området. Hennes fokus ligger på AI-etik och hur den statistiska analys som AI bygger på riskerar att förstärka, påskynda och automatisera orättvisor. Hennes argument är alltid baserade på forskning, och jag törs lova att du kommer att inspireras av Juttas arbete.
En mer jordnära reflektion är att tillgänglighet är ett av de ämnen där det är uppenbart att maskininlärning behöver tonvis med data. Det finns helt enkelt inte tillräckligt med (tillförlitliga) källor där ute för att du ska kunna låta Chat GPT leda dig när det gäller tillgänglighet. Använd med försiktighet – och bara för ämnen där du vet tillräckligt mycket för att kunna avgöra när din AI-kompis är helt ute och cyklar.
Susanna Laurin, verkställande direktör och ordförande, Stiftelsen Funka