Bezbednost veštačke inteligencije je interdisciplinarna oblast koja se bavi sprečavanjem nesreća, zloupotreba ili drugih štetnih posledica koje bi mogle biti rezultat sistema veštačke inteligencije (VI). Ona obuhvata mašinsku etiku i usklađivanje veštačke inteligencije, koji imaju za cilj da sisteme veštačke inteligencije učine moralnim i korisnim. Bezbednost veštačke inteligencije obuhvata tehničke probleme, uključujući sisteme za praćenje rizika, čineći ih visoko pouzdanim. Osim istraživanja veštačke inteligencije, ova oblast obuhvata razvoj normi i politika koje promovišu bezbednost.
Istraživači veštačke inteligencije imaju veoma različita mišljenja o ozbiljnosti i primarnim izvorima rizika koje predstavlja tehnologija veštačke inteligencije[1][2][3] – iako ankete sugerišu da stručnjaci ozbiljno shvataju rizike velikih posledica. U dve ankete istraživača veštačke inteligencije, središnji ispitanik je bio optimista po pitanju veštačke inteligencije u celini, ali je dao 5% verovatnoće za „izuzetno loš (npr. izumiranje ljudi)“ ishod napredne veštačke inteligencije.[1] U anketi zajednice za obradu prirodnog jezika (NLP) iz 2022. godine, 37% se složilo ili se donekle složilo da je verovatno da odluke veštačke inteligencije mogu dovesti do katastrofe koja je „bar toliko loša kao sveopšti nuklearni rat“.[4] Naučnici raspravljaju o trenutnim rizicima od kritičnih grešaka sistema,[5] pristrasnosti,[6] i nadzoru omogućenom veštačkom inteligencijom;[7] novim rizicima od tehnološke nezaposlenosti, digitalnih manipulacija[8] i naoružavanja;[9] i spekulativnim rizicima od gubitka kontrole nad budućim agenatima opšte veštačke inteligencije (AGI).[10]
Neki su kritikovali zabrinutost zbog AGI, kao što je Endru Ng koji ih je 2015. uporedio sa „brigom o prenaseljenosti Marsa kada još nismo ni kročili na planetu“.[11] Stjuart Dž. Rasel sa druge strane poziva na oprez, tvrdeći da je „bolje predvideti ljudsku domišljatost nego je potceniti“.[12]
|date=