Vad vi får ut av AI beror på vad den tränas på. Vilket måste vara en oerhörd frestelse för den som vill påverka vårt samhälle.
Det finns de som fruktar att artificiell intelligens – AI – kommer att utveckla något slags eget medvetande – och till exempel bestämma sig för att den klarar sig bättre utan oss människor. Eller att den kan komma att förslava oss.
Själv är jag inte alls så dyster. AI kommer att lyfta oss in i framtiden. Plötsligt har vi ett människovänligt användargränssnitt för att hantera vår samlade kunskap.
Vilket medför sina speciella problem. Maskiner gör vad man säger åt dem att göra. AI styrs av det material den tränas på.
Vilket väcker frågan: Finns det intressenter som skulle ha något att vinna på att algoritmen snedvrids genom ett subjektivt urval av vad systemet tränas på?
Därför känns det angeläget att AI tränas på så stor del av internets innehåll som möjligt. Så att man kan vara trygg med att det till exempel inte ligger några ekonomiska eller politiska filter mellan mänsklighetens samlade kunskap och användaren.
Så mycket som möjligt trålas redan upp. Twitter var nyligen tvingade att begränsa antalet visade tweets per användare och dag på grund av att massor av AI-botar var inne och skrapade upp all information de kunde komma över.
Man kan utgå från att samma sak gäller även på nätet i övrigt. Allt samlas in från tidningar, bloggar, sociala media, avhandlingar, rapporter, presentationer etc. Man är redan på gång med att även samla in och analysera ljud och video.
Allt du har sagt i en podcast, allt du publicerat på nätet och allt du länkat till är på väg att bli en del av det kollektiva medvetandet. Vilket även gäller alla andra.
Dock kommer ingen AI att kunna få tag i all information, så i strikt mening blir ändå en viss bias något slags default-läge.
Frestelsen att sålla bland all denna input – tänk på barnen; hat & hot; rikets säkerhet; kriget mot narkotikan; klimatet; terroristerna; fake news etc. – måste vara enorm.
Kineserna håller tydligen på att bygga ett eget AI-system. Vilket låter lika intressant som förfärande. Där kommer garanterat den information man använder för att träna sitt AI att vara sållad. Så att resultatet inte blir politiskt fel eller olämpligt…
Utrymmet för oförutsedda och oönskade effekter om ett AI tränas på subjektivt utvald information kan bli stort.
I grunden känns det hela som något slags yttrandefrihetsfråga. Eller informationsfrihet i ett vidare perspektiv. Kommer den enes input till det kollektiva medvetandet att bli lika värderat som den andres? Och om inte, på vilka grunder?
Vilket känns som en mer närliggande och konkret fråga än om AI kommer att ta över världen.
Lämna ett svar