Artificiell intelligens (AI) kommer att ta över världen. Nej, utrota mänskligheten. Eller? Den senaste tiden har intresset för, och rapporteringen om, AI exploderat.
I kölvattnet har flera varningsflaggor hissats – den senaste av en lång rad forskare och maktspelare inom området, däribland Microsofts grundare Bill Gates och Open AI:s vd Sam Altman vars företag ligger bakom superpopulära Chat GPT.
De menar att risken för utrotning via AI är att likställa med hot från framtida pandemier eller kärnvapenkrig.
– Det är klart att vi ska vara försiktiga, men jag blir lite skeptisk när de blandar in så tydliga hot, säger Daniel Gillblad, forskningsansvarig på AI Sweden, som är nationellt svenskt AI-center.
Gillblad får medhåll från Virginia Dignum, professor i ansvarsfull AI vid Umeå universitet:
– Jag tycker att det är att sprida rädsla i onödan. Dessutom gjort av de som driver på utvecklingen. Om de på riktigt är oroliga för utvecklingen behöver de bara se sig själva i spegeln, säger hon och fortsätter:
– Det är lätt att skrämma upp folk. Jag tycker de behöver ta ansvar i stället. Den här dystopiska bilden som de målar upp är högst osannolik, och väldigt långt fram, om ens någonsin. Det finns andra faror betydligt mer här och nu, som att systemen blir partiska, klimatpåverkan, och att de som redan har makt får ännu större inflytande.
Mänskligt medvetande
Både Dignum och Gillblad poängterar att det blivit lätt att tillskriva olika AI-tjänster egenskaper som de inte har.
Att levandegöra en tjänst som Chat GPT är en del av den nutida problematiken, anser även Magnus Johnsson, kognitionsforskare vid Malmö universitet:
– Avståndet till det vi kallar generell artificiell intelligens är längre än de flesta föreställer sig. Jag är lite förvånad över att en del stora namn drar väl stora växlar på utvecklingen vi ser nu, säger han.
Johnsson menar att det "medvetande" som exempelvis Chat GPT visar upp inte är något annat än nästa logiska led för just den tjänsten baserat på dess underliggande teknik.
– Det är en språkmodell, den försöker bara följa nästa steg i konversationen. Den är inte medvetande på samma sätt som en människa.
Faror här och nu
Huruvida AI någonsin kommer att kunna utveckla "medvetande" är Gillblad, Dignum och Johnsson inte överens om. Däremot ser de alla tre ett behov av att rama in AI-området på ett tydligare sätt här och nu.
– Det finns många olika utmaningar eftersom det finns många olika tillämpningar för AI. Generellt är ett sådant partiskhet, att AI utvecklas med rätt data så att det inte uppstår problem när något sedan används i större skala, säger Daniel Gillblad.
– Alla behöver inte förstå AI. Jag förstår inte hur ett flygplan kan flyga, men jag litar på att när jag kliver ombord så kommer saker att funka. Den typen av tillit måste vi kunna ha inför AI. Och då behöver vi fler, även politiker och regeringar, som kan ställa utvecklarna till svars inför val de gör, säger Virgina Dignum.
– AI i sig är inte farligt. Men det kan vara farligt om man ser det som ett verktyg, likt kärnvapen, som kan hamna i människors händer. Om det krävs mycket pengar eller makt att skaffa sig ett viss verktyg kan det bli problem. Men så har det varit sedan flintyxans tid, säger Magnus Johnsson.