Dost süni intellekt — bəşəriyyətə müsbət (zərərsiz) təsir göstərəcək və ya ən azı insan maraqları ilə üst-üstə düşəcək və ya insan növünün təkmilləşdirilməsinə töhfə verəcək hipotetik süni ümumi intellekt. Bu, süni intellekt etikasının bir hissəsidir və maşın etikası ilə sıx əlaqəlidir. Maşın etikası süni intellekt agentinin necə davranması ilə məşğul olsa da, dost süni intellekt araşdırmaları bu davranışı praktik olaraq necə həyata keçirməyə və onun adekvat şəkildə məhdudlaşdırılmasını təmin etməyə yönəlib.
Bu termin insani dəyərləri etibarlı şəkildə həyata keçirən superintellekt süni agentləri müzakirə etmək ideyasını populyarlaşdırması ilə tanınan[1][2]Eliezer Yudkovski tərəfindən[3] icad edilmişdir. Stüart Rassel və Piter Norviqin aparıcı süni intellekt kitabı olan "Süni intellekt: Müasir yanaşma" ideyanı belə təsvir edir:[1]
Yudkovski (2008) Dost Sİ dizaynı haqqında daha ətraflı məlumat verir. O iddia edir ki, dostluq (insanlara zərər verməmək istəyi) əvvəldən yaradılmalıdır, lakin dizaynerlər həm dizaynlarının qüsurlu ola biləcəyini, həm də robotun öyrənib inkişaf edəcəyini dərk etməlidirlər. Beləliklə, problem mexanizm dizaynından biridir - nəzarət və tarazlıq sistemi altında süni intellekt sistemlərinin təkamül mexanizmini müəyyənləşdirmək və sistemlərə bu cür dəyişikliklər qarşısında dost qalacaq faydalı funksiyalar vermək.
"Dost" bu kontekstdə texniki terminologiya kimi istifadə olunur və danışıq mənasında "dost" olanları deyil, təhlükəsiz və faydalı agentləri seçir. Konsepsiya ilk növbədə zəkada sürətlə partlayan rekursiv şəkildə özünü təkmilləşdirən süni agentlərin müzakirələri kontekstində, bu hipotetik texnologiyanın insan cəmiyyətinə böyük, sürətli və idarə olunması çətin təsir göstərəcəyinə əsaslanaraq istifadə olunur.[4]
Yudkowsky, E. Artificial Intelligence as a Positive and Negative Factor in Global Risk. In Global Catastrophic Risks, Oxford University Press, 2008. Discusses Artificial Intelligence from the perspective of Existential risk. In particular, Sections 1-4 give background to the definition of Friendly AI in Section 5. Section 6 gives two classes of mistakes (technical and philosophical) which would both lead to the accidental creation of non-Friendly AIs. Sections 7-13 discuss further related issues.
Omohundro, S. 2008 The Basic AI Drives Appeared in AGI-08 - Proceedings of the First Conference on Artificial General Intelligence