Med företag som Paypal, Tesla, Space X och futuristiska idéer som Hyperloop på sitt CV är Elon Musk kanske inte första personen man väntar sig skulle oroa sig för att en framtida superintelligent artificiell intelligens skulle bli en fara för mänskligheten. Men Musk är en del i rörelse av forskare, uppfinnare och entreprenörer som på allvar har börjat oroa sig för ett framtidsscenario där människan skapar en superintelligent maskin som blir vår undergång.
Läs mer: AI-forskningen måste ta sig an de etiska frågorna
I filmen Terminator slår de intelligenta roboarna tillbaka mot mänskligheten. Foto: Artur Andrzej, CC-BY
En forskare som formulerat de här tankarna är svenske filosofen Niklas Boström och Elon Musk fick mycket uppmärksamhet när han i höstas rekomenderare Boströms bok och kallade AI “potentiellt farligare än kärnvapen.
Worth reading Superintelligence by Bostrom. We need to be super careful with AI. Potentially more dangerous than nukes.
— Elon Musk (@elonmusk) August 3, 2014
Nu visar Elon Musk att han tar farhågorna på allvar. Genom en donation på 10 miljoner dollar till Future of Life Institute hoppas han kunna bidra till att forskningen om artificiell intelligens tar hänsyn också till säkerhetsfrågor.
– Det är bättre att försöka förhindra att något negativt inträffar än att vänta på att det ska inträffa och sedan agera. Det här är ett område där de negativa resultaten kan bli allvarliga och det går att tänka sig scenarior som civilisationen inte kan återhämta sig från, säger Elon Musk i ett uttalande i samband med donationen.
Läs mer: Elon Musk söker rymdbonde
Men Musks satsning betyder inte att han inte tror att AI kommer att ha fördelar. Han tror att tekniken kommer att bli viktig för att få bort vad han kallar “inte intressanta” arbetsuppgifter.
Bakom Future of Life Institute står bland andra svenske kosmologen Max Tegmark som är professor på MIT. I institutets rådgivande kommitté finns förutom Elon Musk även forskarkändisar som kosmologen Stephen Hawking och fysikern Saul Perlmutter skådespelarna Morgan Freeman och Alan Alda. Tidigare i veckan publicerade institutet ett öppet brev med över tusen underskrifter från forskare och teknologer som vill sätta fokus på etik och säkerhet när det gäller utvecklingen av intelligenta maskiner. Tillsammans med brevet publicerades också ett längre dokument med prioriteringar som forskarna tycker är viktiga för framtida forskning.