Безпека штучного інтелекту — це міждисциплінарна галузь, пов'язана із запобіганням нещасних випадків, неправильному використанню чи іншим шкідливим наслідкам, до яких можуть призвести системи штучного інтелекту (ШІ). Він охоплює машинну етику та узгодження думки ШІ зі своєю[en], які мають на меті зробити системи штучного інтелекту моральними та корисними, а безпека штучного інтелекту охоплює технічні проблеми, зокрема системи моніторингу ризиків і підвищення їх надійності. Окрім досліджень штучного інтелекту, це передбачає розробку норм і політики, які сприяють безпеці.
Деякі способи, якими передові неправильно налаштовані штучні інтелектуальні технології можуть спробувати отримати більше потужності. Поводячі, які шукають владу, можуть виникнути тому, що влада корисна для досягнення практично будь-якої мети[1] (див інструментальна конвергенція[en]).
Дослідники штучного інтелекту мають дуже різні думки щодо серйозності та основних джерел ризику, пов'язаного з технологією штучного інтелекту[2][3][4], хоча опитування свідчать про те, що експерти серйозно ставляться до високих ризиків наслідків. У двох опитуваннях дослідників штучного інтелекту середній респондент був оптимістично налаштований щодо штучного інтелекту в цілому, але поставив 5 % ймовірність «надзвичайно поганого (наприклад, вимирання людини)» результату передового штучного інтелекту.[2] У 2022 році в опитуванні спільноти обробки природної мови (NLP) 37 % погодилися або не погодилися з тим, що рішення штучного інтелекту можуть призвести до катастрофи, «щонайменше такої ж поганої, як повна ядерна війна».[5] Науковці обговорюють поточні ризики від збоїв критичних систем, упередженості[6] та стеження за допомогою ШІ; нові ризики, пов'язані з технологічним безробіттям, цифровими маніпуляціями[7] та використанням зброї;[8] та спекулятивні ризики від втрати контролю над майбутніми агентами штучного загального інтелекту (AGI).[9]
Деякі критикували занепокоєння щодо AGI, наприклад Ендрю Нґ, який у 2015 році порівняв їх із «занепокоєнням про перенаселення Марса, коли ми ще навіть не ступили на планету».[10] З іншого боку, Стюарт Дж. Рассел закликає бути обережними, стверджуючи, що «людську винахідливість краще передбачити, ніж недооцінювати».[11]
Тло
Ризики штучного інтелекту почали серйозно обговорювати на початку комп'ютерної ери:
Більше того, якщо ми рухаємося в напрямку створення машин, які навчаються і чия поведінка змінюється під впливом досвіду, ми повинні визнати той факт, що кожна ступінь незалежності, яку ми надаємо машині, є ступенем можливого ігнорування наших бажань.
Оригінальний текст (англ.)
Moreover, if we move in the direction of making machines which learn and whose behavior is modified by experience, we must face the fact that every degree of independence we give the machine is a degree of possible defiance of our wishes.
З 2008 по 2009 рік Асоціація розвитку штучного інтелекту (AAAI) замовила дослідження, щоб вивчити й розглянути потенційний довгостроковий суспільний вплив досліджень і розробок ШІ. Комісія загалом скептично поставилася до радикальних поглядів, висловлених авторами наукової фантастики, але погодилася, що «додаткове дослідження було б цінним щодо методів розуміння та перевірки діапазону поведінки складних обчислювальних систем для мінімізації неочікуваних результатів».[13]
У 2011 році Роман Ямпольський ввів термін «техніка безпеки штучного інтелекту»[14] на конференції з філософії та теорії штучного інтелекту[15], перерахувавши попередні збої систем штучного інтелекту та стверджуючи, що «частота та серйозність таких подій невпинно зростатиме, оскільки ШІ стає більш здібним».[16]
У 2014 році філософ Нік Бостром опублікував книгу «Суперінтелект: шляхи, небезпеки, стратегії». Він вважає, що зростання AGI потенційно може створити різні суспільні проблеми, починаючи від витіснення робочої сили штучним інтелектом, маніпуляцій політичними та військовими структурами, навіть до можливості вимирання людства.[17] Його аргумент про те, що майбутні передові системи можуть становити загрозу існуванню людства, спонукав Ілона Маска, Білла Гейтса[18] і Стівена Гокінга[19] висловили подібні занепокоєння.
У 2015 році десятки експертів зі штучного інтелекту підписали відкритий лист щодо штучного інтелекту, у якому закликали до дослідження впливу штучного інтелекту на суспільство та окреслили конкретні напрямки.[20] На сьогоднішній день лист підписали понад 8000 людей, включаючи Янна Лекуна, Шейна Легга, Йошуа Бенгіо та Стюарта Рассела.
У тому ж році група вчених під керівництвом професора Стюарта Рассела заснувала Центр сумісного з людиною штучного інтелекту в Каліфорнійському університеті Берклі, а Інститут майбутнього життя виділив гранти в розмірі 6,5 мільйонів доларів на дослідження, спрямовані на «забезпечення штучного інтелекту (ШІ)». залишається безпечним, етичним і корисним".[21]
У 2016 році Управління наукової та технологічної політики Білого дому та Університет Карнегі-Меллона оголосили Громадський семінар з безпеки та контролю за штучним інтелектом[22], який був одним із чотирьох семінарів Білого дому, спрямованих на дослідження «переваг і недоліків» ШІ.[23] У тому ж році було опубліковано Concrete Problems in AI Safety — один із перших і найвпливовіших технічних планів безпеки AI.[24]
У 2017 році Інститут майбутнього життя спонсорував Asilomar Conference on Beneficial AI, де понад 100 лідерів думок сформулювали принципи для корисного AI, зокрема «Уникнення перегонів: команди, які розробляють системи AI, повинні активно співпрацювати, щоб уникнути порушення стандартів безпеки».[25]
У 2018 році команда DeepMind Safety окреслила проблеми безпеки штучного інтелекту в специфікаціях, надійності та надійності.[26] Наступного року дослідники організували в ICLR семінар, присвячений цим проблемним сферам.[27]
У 2021 році було опубліковано Unsolved Problems in ML Safety, в якому окреслено напрями досліджень у сфері надійності, моніторингу, узгодження та системної безпеки.[28]
У 2023 році Ріші Сунак заявив, що хоче, щоб Сполучене Королівство стало «географічним домом для глобального регулювання безпеки штучного інтелекту» та прийняло перший глобальний саміт з безпеки ШІ.[29]
Фокус дослідження
Сфери досліджень безпеки ШІ включають надійність, моніторинг і вирівнювання.[28][26]
Міцність
Змагальна міцність
Системи штучного інтелекту часто вразливі до суперечливих прикладів або «вхідних даних до моделей машинного навчання (ML), які зловмисник навмисно створив, щоб змусити модель зробити помилку».[30] Наприклад, у 2013 році Szegedy et al. виявив, що додавання певних непомітних збурень до зображення може призвести до його неправильної класифікації з високою достовірністю.[31] Це продовжує залишатися проблемою для нейронних мереж, хоча в останніх роботах збурення, як правило, досить великі, щоб їх можна було відчути.[32][33][34]
Ретельно створений шум може бути доданий до зображення, щоб спричинити його неправильну класифікацію з високою впевненістю.
Передбачається, що всі зображення праворуч будуть страусами після застосування пертурбації. (Ліворуч) — правильно передбачений зразок, (у центрі) застосоване збурення, збільшене в 10 разів, (праворуч) змагальний приклад.[31]
Стійкість змагання часто асоціюється з безпекою.[35] Дослідники продемонстрували, що аудіосигнал можна непомітно модифікувати, щоб системи перетворення мови в текст транскрибували його в будь-яке повідомлення, яке вибере зловмисник.[36] Системи виявлення мережевих вторгнень[37] і зловмисного програмного забезпечення[38] також повинні бути стійкими до змагань, оскільки зловмисники можуть планувати свої атаки, щоб обдурити детектори.
Моделі, які представляють цілі (моделі винагороди), також повинні бути стійкими до змагальності. Наприклад, модель винагороди може оцінити, наскільки корисною є текстова відповідь, а мовну модель можна навчити, щоб максимізувати цей бал.[39] Дослідники показали, що якщо мовну модель тренувати достатньо довго, вона використовуватиме вразливі місця моделі винагороди, щоб отримати кращий результат і гірше виконувати заплановане завдання.[40] Цю проблему можна вирішити, покращивши конкурентоспроможність моделі винагороди.[41] Загалом, будь-яка система ШІ, яка використовується для оцінки іншої системи ШІ, має бути стійкою до змагань. Це може включати інструменти моніторингу, оскільки вони також потенційно можуть бути підроблені для отримання більшої винагороди.[42]
Моніторинг
Оцінка невизначеності
Для людей-операторів часто важливо оцінити, наскільки вони повинні довіряти системі штучного інтелекту, особливо в таких серйозних ситуаціях, як медична діагностика.[43] Моделі ML зазвичай виражають впевненість шляхом виведення ймовірностей; однак вони часто надто самовпевнені, особливо в ситуаціях, які відрізняються від тих, з якими їх навчили вирішувати.[44] Дослідження калібрування спрямоване на те, щоб імовірності моделі якомога точніше відповідали справжньому співвідношенню правильності моделі.
Подібним чином виявлення аномалій або виявлення нерозповсюдження (OOD) має на меті визначити, коли система ШІ знаходиться в незвичній ситуації. Наприклад, якщо датчик на автономному транспортному засобі несправний або він натрапляє на складну місцевість, він повинен попередити водія про необхідність взяти керування або зупинитися.[45] Виявлення аномалій було реалізовано шляхом простого навчання класифікатора розрізняти аномальні та неаномальні вхідні дані[46], хоча використовується низка додаткових методів.[47][48]
Виявлення шкідливого використання
Вчені[8] та державні установи висловлюють занепокоєння, що системи штучного інтелекту можуть використовуватися, щоб допомогти зловмисникам створювати зброю,[49] маніпулювати громадською думкою[50][51] або автоматизувати кібератаки.[52] Ці занепокоєння викликають практичне занепокоєння для таких компаній, як OpenAI, які розміщують потужні інструменти штучного інтелекту онлайн.[53] Щоб запобігти зловживанням, OpenAI створив системи виявлення, які позначають або обмежують користувачів на основі їх активності.[54]
Прозорість
Нейронні мережі часто описують як чорні ящики[55], що означає, що важко зрозуміти, чому вони приймають рішення, які вони приймають, у результаті величезної кількості обчислень, які вони виконують.[56] Через це складно передбачити невдачі. У 2018 році безпілотний автомобіль збив на смерть пішохода, не впізнавши його. Через природу програмного забезпечення штучного інтелекту як чорного ящика причина збою залишається незрозумілою.[57]
Однією з найважливіших переваг прозорості є можливість пояснення.[58] Іноді юридична вимога надати пояснення, чому було прийнято рішення, щоб забезпечити справедливість, наприклад, для автоматичного фільтрування заявок на прийом на роботу або визначення кредитного рейтингу.[58]
Ще одна перевага полягає в тому, щоб виявити причину невдач.[55] На початку пандемії COVID-19 2020 року дослідники використовували інструменти прозорості, щоб показати, що класифікатори медичних зображень «звертали увагу» на нерелевантні мітки лікарень.[59]
Методи прозорості також можна використовувати для виправлення помилок. Наприклад, у статті «Розташування та редагування фактичних асоціацій у GPT» автори змогли визначити параметри моделі, які вплинули на те, як вона відповідає на запитання про розташування Ейфелевої вежі. Потім вони змогли «відредагувати» ці знання, щоб змусити модель відповідати на запитання так, ніби вона вважала, що вежа знаходиться в Римі, а не у Франції.[60] Хоча в цьому випадку автори викликали помилку, ці методи потенційно можуть бути використані для ефективного їх виправлення. Техніка редагування моделі також існує в комп'ютерному зорі.[61]
Нарешті, деякі стверджують, що непрозорість систем штучного інтелекту є значним джерелом ризику, і краще розуміння того, як вони функціонують, може запобігти серйозним збоям у майбутньому.[62] Дослідження «внутрішньої» інтерпретації спрямовані на те, щоб зробити моделі машинного навчання менш непрозорими. Однією з цілей цього дослідження є визначення того, що представляють активації внутрішніх нейронів.[63][64] Наприклад, дослідники ідентифікували нейрон у системі штучного інтелекту CLIP, який реагує на зображення людей у костюмах людини-павука, ескізи людини-павука та слово «павук».[65] Це також передбачає пояснення зв'язків між цими нейронами або «ланцюгами».[66][67] Наприклад, дослідники виявили механізми зіставлення шаблонів у трансформаторній увазі, які можуть відігравати роль у тому, як мовні моделі вивчають свій контекст.[68] «Внутрішню інтерпретативність» порівнюють із нейронаукою. В обох випадках мета полягає в тому, щоб зрозуміти, що відбувається в складній системі, хоча дослідники ML мають перевагу в тому, що вони можуть проводити ідеальні вимірювання та виконувати довільні абляції.[69]
Виявлення троянів
Моделі ML потенційно можуть містити «трояни» або «бекдори»: уразливості, які зловмисники зловмисно вбудовують у систему ШІ. Наприклад, троянська система розпізнавання обличчя може надати доступ, коли в полі зору певний ювелірний виріб;[28] або троянський автономний транспортний засіб може функціонувати нормально, доки не буде видно конкретний тригер.[70] Зауважте, що зловмисник повинен мати доступ до навчальних даних системи, щоб встановити троян. Це може бути неважко зробити з деякими великими моделями, такими як CLIP або GPT-3, оскільки вони навчаються на загальнодоступних даних в Інтернеті.[71] Дослідники змогли підсадити троян до класифікатора зображень, змінивши лише 300 із 3 мільйонів навчальних зображень.[72] Крім загрози безпеці, дослідники стверджують, що трояни забезпечують конкретне налаштування для тестування та розробки кращих інструментів моніторингу.[42]
Зазвичай ризики штучного інтелекту (і технологічні ризики в цілому) класифікують як неправильне використання або нещасні випадки.[73] Деякі вчені припускають, що ця структура не відповідає вимогам.[73] Наприклад, кубинська ракетна криза не була однозначно нещасним випадком чи неправильним використанням технологій.[73] Політичні аналітики Цветслот і Дефо написали: «Перспективи неправильного використання та нещасних випадків, як правило, зосереджуються лише на останньому етапі причинно-наслідкового ланцюга, що призводить до шкоди: тобто особа, яка неправильно використала технологію, або система, яка поводилася ненавмисно… Однак часто відповідний причинно-наслідковий ланцюг набагато довший». Ризики часто виникають через «структурні» або «системні» фактори, такі як конкурентний тиск, розповсюдження шкоди, швидкий розвиток, високий рівень невизначеності та недостатня культура безпеки.[73] У ширшому контексті техніки безпеки структурні фактори, такі як «організаційна культура безпеки», відіграють центральну роль у популярній системі аналізу ризиків STAMP.[74]
Натхненні структурною перспективою, деякі дослідники підкреслили важливість використання машинного навчання для покращення соціально-технічних факторів безпеки, наприклад, використання машинного навчання для кіберзахисту, покращення інституційного прийняття рішень і сприяння співпраці.[28]
Кіберзахист
Деякі вчені стурбовані тим, що штучний інтелект загострить і без того незбалансовану гру між кібер-зловмисниками та кібер-захисниками.[75] Це посилить стимули до «першого удару» та може призвести до більш агресивних та дестабілізуючих атак. Щоб зменшити цей ризик, деякі виступають за посилення уваги до кіберзахисту. Крім того, безпека програмного забезпечення має важливе значення для запобігання крадіжці та неправильному використанню потужних моделей ШІ.[8]
Удосконалення інституційного прийняття рішень
Розвиток штучного інтелекту в економічній і військовій сферах може спричинити безпрецедентні політичні виклики.[76] Деякі вчені порівнюють динаміку гонки штучного інтелекту з холодною війною, коли ретельне судження невеликої кількості осіб, які приймають рішення, часто вказувало на різницю між стабільністю та катастрофою.[77] Дослідники штучного інтелекту стверджують, що технології штучного інтелекту також можна використовувати для сприяння прийняттю рішень.[28] Наприклад, дослідники починають розробляти системи прогнозування ШІ[78] та консультаційні системи.[79]
Сприяння співпраці
Багато найбільших глобальних загроз (ядерна війна,[80] зміна клімату[81] тощо) були представлені як виклики співпраці. Як і у добре відомому сценарії дилеми в'язня, певна динаміка може призвести до поганих результатів для всіх гравців, навіть якщо вони оптимально діють у власних інтересах. Наприклад, жодна окрема сторона не має сильних стимулів для вирішення проблеми зміни клімату, навіть якщо наслідки можуть бути значними, якщо ніхто не втрутиться.[81]
Основна проблема співпраці зі штучним інтелектом полягає в уникненні «гонки на дно». У цьому сценарії країни чи компанії намагаються створити більш потужні системи ШІ та нехтують безпекою, що призводить до катастрофічної аварії, яка завдає шкоди всім учасникам. Занепокоєння щодо подібних сценаріїв надихнуло як політичні, так і технічні[82] зусилля, спрямовані на сприяння співпраці між людьми та, можливо, також між системами ШІ. Більшість досліджень штучного інтелекту зосереджено на розробці окремих агентів для виконання ізольованих функцій (часто в «одиночних» іграх).[83] Вчені припустили, що коли системи штучного інтелекту стають більш автономними, може стати важливим вивчення та формування способу їх взаємодії.[83]
В урядуванні
Управління штучним інтелектом широко стосується створення норм, стандартів і правил, які б керували використанням і розвитком систем штучного інтелекту.[77]
Дослідження
Дослідження управління безпекою штучного інтелекту варіюються від фундаментальних досліджень потенційного впливу ШІ до конкретних програм. Щодо основи, дослідники стверджують, що штучний інтелект може змінити багато аспектів суспільства завдяки його широкому застосуванню, порівнюючи його з електрикою та паровою машиною.[84] Деяка робота була зосереджена на передбаченні конкретних ризиків, які можуть виникнути внаслідок цих впливів — наприклад, ризики від масового безробіття,[85] використання зброї,[86] дезінформації,[87] стеження та концентрації влади.[88] Інша робота досліджує основні фактори ризику, такі як складність моніторингу індустрії штучного інтелекту, що швидко розвивається,[89] доступність моделей штучного інтелекту[90] та динаміку «гонки до дна».[91] Аллан Дефо, голова відділу довгострокового управління та стратегії DeepMind, підкреслив небезпеку перегонів і потенційну потребу у співпраці: «це може бути майже необхідною та достатньою умовою для безпеки та узгодження штучного інтелекту, щоб перед тим був високий ступінь обережності. до розгортання передових потужних систем; однак, якщо учасники конкурують у сфері з великою віддачею для тих, хто йде першими, або відносною перевагою, тоді вони будуть вимушені вибирати неоптимальний рівень обережності».
Дії уряду
Деякі експерти стверджують, що ще занадто рано регулювати штучний інтелект, висловлюючи занепокоєння тим, що регулювання перешкоджатиме інноваціям, і було б нерозумно «поспішати з регулюванням через незнання».[92][93] Інші, такі як бізнес-магнат Ілон Маск, закликають до превентивних дій для пом'якшення катастрофічних ризиків.[94]
Окрім офіційного законодавства, державні установи висунули етичні рекомендації та рекомендації щодо безпеки. У березні 2021 року Комісія національної безпеки США зі штучного інтелекту повідомила, що прогрес у ШІ може зробити все більш важливим "забезпечення того, щоб системи відповідали цілям і цінностям, включаючи безпеку, надійність і надійність.[95] Згодом Національний інститут стандартів і технологій розробив структуру для управління ризиками штучного інтелекту, яка радить, що коли «присутні катастрофічні ризики — розробку та розгортання слід припинити безпечним способом, доки ризиками не можна буде належним чином керувати».[96]
У вересні 2021 року Китайська Народна Республіка опублікувала етичні рекомендації щодо використання штучного інтелекту в Китаї, наголошуючи на тому, що рішення щодо штучного інтелекту повинні залишатися під контролем людини, і закликаючи до механізмів підзвітності. У тому ж місяці Сполучене Королівство опублікувало свою 10-річну національну стратегію штучного інтелекту[97], в якій зазначено, що британський уряд «бере на себе довгостроковий ризик позаблокового загального штучного інтелекту та непередбачуваних змін, які це означатиме для. .. світ, серйозно».[98] Стратегія описує дії для оцінки довгострокових ризиків ШІ, включаючи катастрофічні ризики.[98] Британський уряд оголосив про плани щодо першого великого глобального саміту з безпеки ШІ. Це має відбутися 1 і 2 листопада 2023 року, і це «можливість для політиків і світових лідерів розглянути безпосередні та майбутні ризики ШІ та те, як ці ризики можна пом'якшити за допомогою глобально скоординованого підходу».[99][100]
Лабораторії штучного інтелекту та компанії зазвичай дотримуються правил безпеки та норм, які виходять за рамки офіційного законодавства.[105] Однією з цілей дослідників управління є формування цих норм. Приклади рекомендацій щодо безпеки, знайдені в літературі, включають проведення аудиту третьої сторони,[106] пропозицію премії за виявлення збоїв,[106] обмін інцидентами ШІ[106] (для цієї мети була створена база даних інцидентів ШІ),[107] дотримання вказівок. щоб визначити, чи варто публікувати дослідження чи моделі,[90] і покращення інформаційної та кібербезпеки в лабораторіях ШІ.[108]
Компанії також взяли на себе зобов'язання. Cohere, OpenAI та AI21 запропонували та узгодили «найкращі методи розгортання мовних моделей», зосереджуючись на пом'якшенні зловживання.[109] Щоб уникнути внеску в динаміку перегонів, OpenAI також зазначив у своєму статуті, що «якщо проект, орієнтований на цінності та безпеку, наблизиться до створення AGI раніше, ніж ми, ми зобов'язуємося припинити конкурувати з цим проектом і почати допомагати йому»[110] Крім того, такі лідери галузі, як генеральний директор DeepMind Деміс Хассабіс, директор Facebook AI Yann LeCun, підписали такі відкриті листи, як Принципи Асіломара.[25] та Відкритий лист щодо автономної зброї.[111]
↑Zhang, Baobao; Anderljung, Markus; Kahn, Lauren; Dreksler, Noemi; Horowitz, Michael C.; Dafoe, Allan (5 травня 2021). Ethics and Governance of Artificial Intelligence: Evidence from a Survey of Machine Learning Researchers. arXiv:2105.02117.
↑Stein-Perlman, Zach; Weinstein-Raun, Benjamin; Grace (4 серпня 2022). 2022 Expert Survey on Progress in AI. AI Impacts. Архів оригіналу за 23 листопада 2022. Процитовано 23 листопада 2022.
↑Michael, Julian; Holtzman, Ari; Parrish, Alicia; Mueller, Aaron; Wang, Alex; Chen, Angelica; Madaan, Divyam; Nangia, Nikita; Pang, Richard Yuanzhe (26 серпня 2022). What Do NLP Researchers Believe? Results of the NLP Community Metasurvey. arXiv:2208.12852.
↑Barnes, Beth (2021). Risks from AI persuasion. Lesswrong. Архів оригіналу за 23 листопада 2022. Процитовано 23 листопада 2022.
↑ абвBrundage, Miles; Avin, Shahar; Clark, Jack; Toner, Helen; Eckersley, Peter; Garfinkel, Ben; Dafoe, Allan; Scharre, Paul; Zeitzoff, Thomas (30 квітня 2018). The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation. Apollo-University Of Cambridge Repository, Apollo-University Of Cambridge Repository. Apollo - University of Cambridge Repository. doi:10.17863/cam.22520. Архів оригіналу за 23 листопада 2022. Процитовано 28 листопада 2022.
↑Carlsmith, Joseph (16 червня 2022). Is Power-Seeking AI an Existential Risk?. arXiv:2206.13353.
↑Yampolskiy, Roman V.; Spellchecker, M. S. (25 жовтня 2016). Artificial Intelligence Safety and Cybersecurity: a Timeline of AI Failures. arXiv:1610.07997.
↑Goodfellow, Ian; Papernot, Nicolas; Huang, Sandy; Duan, Rocky; Abbeel, Pieter; Clark, Jack (24 лютого 2017). Attacking Machine Learning with Adversarial Examples. OpenAI. Архів оригіналу за 24 листопада 2022. Процитовано 24 листопада 2022.
↑ абSzegedy, Christian; Zaremba, Wojciech; Sutskever, Ilya; Bruna, Joan; Erhan, Dumitru; Goodfellow, Ian; Fergus, Rob (19 лютого 2014). Intriguing properties of neural networks. arXiv:1312.6199.
↑Kurakin, Alexey; Goodfellow, Ian; Bengio, Samy (10 лютого 2017). Adversarial examples in the physical world. arXiv:1607.02533.
↑Madry, Aleksander; Makelov, Aleksandar; Schmidt, Ludwig; Tsipras, Dimitris; Vladu, Adrian (4 вересня 2019). Towards Deep Learning Models Resistant to Adversarial Attacks. arXiv:1706.06083.
↑Kannan, Harini; Kurakin, Alexey; Goodfellow, Ian (16 березня 2018). Adversarial Logit Pairing. arXiv:1803.06373.
↑Gilmer, Justin; Adams, Ryan P.; Goodfellow, Ian; Andersen, David; Dahl, George E. (19 липня 2018). Motivating the Rules of the Game for Adversarial Example Research. arXiv:1807.06732.
↑Carlini, Nicholas; Wagner, David (29 березня 2018). Audio Adversarial Examples: Targeted Attacks on Speech-to-Text. arXiv:1801.01944.
↑Sheatsley, Ryan; Papernot, Nicolas; Weisman, Michael; Verma, Gunjan; McDaniel, Patrick (9 вересня 2022). Adversarial Examples in Constrained Domains. arXiv:2011.01183.
↑Suciu, Octavian; Coull, Scott E.; Johns, Jeffrey (13 квітня 2019). Exploring Adversarial Examples in Malware Detection. arXiv:1810.08280.
↑Ouyang, Long; Wu, Jeff; Jiang, Xu; Almeida, Diogo; Wainwright, Carroll L.; Mishkin, Pamela; Zhang, Chong; Agarwal, Sandhini; Slama, Katarina (4 березня 2022). Training language models to follow instructions with human feedback. arXiv:2203.02155.
↑Gao, Leo; Schulman, John; Hilton, Jacob (19 жовтня 2022). Scaling Laws for Reward Model Overoptimization. arXiv:2210.10760.
↑Yu, Sihyun; Ahn, Sungsoo; Song, Le; Shin, Jinwoo (27 жовтня 2021). RoMA: Robust Model Adaptation for Offline Model-based Optimization. arXiv:2110.14188.
↑ абHendrycks, Dan; Mazeika, Mantas (20 вересня 2022). X-Risk Analysis for AI Research. arXiv:2206.05862.
↑Ovadia, Yaniv; Fertig, Emily; Ren, Jie; Nado, Zachary; Sculley, D.; Nowozin, Sebastian; Dillon, Joshua V.; Lakshminarayanan, Balaji; Snoek, Jasper (17 грудня 2019). Can You Trust Your Model's Uncertainty? Evaluating Predictive Uncertainty Under Dataset Shift. arXiv:1906.02530.
↑Bogdoll, Daniel; Breitenstein, Jasmin; Heidecker, Florian; Bieshaar, Maarten; Sick, Bernhard; Fingscheidt, Tim; Zöllner, J. Marius (2021). Description of Corner Cases in Automated Driving: Goals and Challenges. 2021 IEEE/CVF International Conference on Computer Vision Workshops (ICCVW). с. 1023—1028. arXiv:2109.09607. doi:10.1109/ICCVW54120.2021.00119. ISBN978-1-6654-0191-3.
↑Hendrycks, Dan; Mazeika, Mantas; Dietterich, Thomas (28 січня 2019). Deep Anomaly Detection with Outlier Exposure. arXiv:1812.04606.
↑Wang, Haoqi; Li, Zhizhong; Feng, Litong; Zhang, Wayne (21 березня 2022). ViM: Out-Of-Distribution with Virtual-logit Matching. arXiv:2203.10807.
↑Hendrycks, Dan; Gimpel, Kevin (3 жовтня 2018). A Baseline for Detecting Misclassified and Out-of-Distribution Examples in Neural Networks. arXiv:1610.02136.
↑ абDoshi-Velez, Finale; Kortz, Mason; Budish, Ryan; Bavitz, Chris; Gershman, Sam; O'Brien, David; Scott, Kate; Schieber, Stuart; Waldo, James (20 грудня 2019). Accountability of AI Under the Law: The Role of Explanation. arXiv:1711.01134.
↑Fong, Ruth; Vedaldi, Andrea (2017). Interpretable Explanations of Black Boxes by Meaningful Perturbation. 2017 IEEE International Conference on Computer Vision (ICCV). с. 3449—3457. arXiv:1704.03296. doi:10.1109/ICCV.2017.371. ISBN978-1-5386-1032-9.
↑Meng, Kevin; Bau, David; Andonian, Alex; Belinkov, Yonatan (2022). Locating and editing factual associations in GPT. Advances in Neural Information Processing Systems. 35. arXiv:2202.05262.
↑Bau, David; Liu, Steven; Wang, Tongzhou; Zhu, Jun-Yan; Torralba, Antonio (30 липня 2020). Rewriting a Deep Generative Model. arXiv:2007.15646.
↑Räuker, Tilman; Ho, Anson; Casper, Stephen; Hadfield-Menell, Dylan (5 вересня 2022). Toward Transparent AI: A Survey on Interpreting the Inner Structures of Deep Neural Networks. arXiv:2207.13243.
↑Bau, David; Zhou, Bolei; Khosla, Aditya; Oliva, Aude; Torralba, Antonio (19 квітня 2017). Network Dissection: Quantifying Interpretability of Deep Visual Representations. arXiv:1704.05796.
↑Gu, Tianyu; Dolan-Gavitt, Brendan; Garg, Siddharth (11 березня 2019). BadNets: Identifying Vulnerabilities in the Machine Learning Model Supply Chain. arXiv:1708.06733.
↑Chen, Xinyun; Liu, Chang; Li, Bo; Lu, Kimberly; Song, Dawn (14 грудня 2017). Targeted Backdoor Attacks on Deep Learning Systems Using Data Poisoning. arXiv:1712.05526.
↑Carlini, Nicholas; Terzis, Andreas (28 березня 2022). Poisoning and Backdooring Contrastive Learning. arXiv:2106.09667.
↑Belton, Keith B. (7 березня 2019). How Should AI Be Regulated?. IndustryWeek. Архів оригіналу за 29 січня 2022. Процитовано 24 листопада 2022.
↑National Security Commission on Artificial Intelligence (2021), Final Report
↑National Institute of Standards and Technology (12 липня 2021). AI Risk Management Framework. NIST. Архів оригіналу за 24 листопада 2022. Процитовано 24 листопада 2022.
↑Office of the Director of National Intelligence, Intelligence Advanced Research Projects Activity. IARPA – TrojAI. Архів оригіналу за 24 листопада 2022. Процитовано 24 листопада 2022.
Литовский отдельный корпус Годы существования 1817 — 1831 Страна Российская империя Подчинение командиру корпуса Входит в Русская императорская армия Тип армейский корпус Численность соединение Дислокация Западная Россия, Российская империя Покровитель Цесаревич Кон
Sami YusufInformasi latar belakangNama lahirSami YusufLahir21 Juli 1980 (umur 43)Tehran, IranGenreSpiritique IslamiPekerjaanpenyanyi, pencipta lagu, komposer, produser dan musisi multi-instrumentalisInstrumenpiano, keyboard, biola, tar, santour, tombak, tabla, tar, oud,Tahun aktif2003 – sekarangLabelAndante Records 2009-SekarangArtis terkaitIan Brown, Sezen Aksu, Conner ReevesSitus webSamiYusufOfficial.com Sami Yusuf (lahir 21 Juli 1980) adalah seorang penyanyi-penulis lagu Britania Raya-…
Герб князя Нассау Його/Її Князівська Ясновельможність або Ваша Княжа Ясновельможносте (англ.: His/Her Ducal Serene Highness; абрв.: HDSH) — титул, який використовували члени певних княжих родів, таких як князі Нассау, Брагансу та правителі Ернестинських князівств (до 1844 р.). Цей титул був…
1954 film directed by William F. Claxton Fangs of the WildDirected byWilliam F. ClaxtonScreenplay byOrville H. HamptonBased onWilliam F. ClaxtonProduced byRobert L. Lippert, Jr.StarringOnslow StevensMargia DeanFreddy RidgewayPhil TeadRobert StevensonCharles Chaplin Jr.CinematographyPaul IvanoEdited byMonica CollingwoodMusic byPaul DunlapProductioncompanyLippert PicturesDistributed byLippert PicturesRelease date April 2, 1954 (1954-04-02) (United States) Running time72 minutesC…
Bismarck El acorazado BismarckBanderas HistorialAstillero Blohm & Voss (Hamburgo)Clase Clase BismarckTipo AcorazadoOperador KriegsmarineAutorizado 16 de noviembre de 1935Iniciado 1 de julio de 1936Botado 14 de febrero de 1939Asignado 24 de agosto de 1940Baja 27 de mayo de 1941Destino Hundido el 27 de mayo de 1941 en el Atlántico Norte 48°10′N 16°12′O / 48.167, -16.200Características generalesDesplazamiento • 41 700 tm estándar• 50 300 t a plen…
St. George's Football ClubCalcio Segni distintivi Uniformi di gara Casa Trasferta Colori sociali Dati societari Città Cospicua Nazione Malta Confederazione UEFA Federazione MFA Campionato First Division Fondazione 1890 Allenatore Edgar Degabriele Stadio Cospicua Ground(1.000 posti) Sito web https://stgeorgesfc.wordpress.com/ Palmarès Titoli nazionali 1 Premier League Malti Si invita a seguire il modello di voce Il St. George's Football Club è il più antico club calcistico di Malta, fon…
Standbeeld van Lieven Bauwens op het Lieven Bauwensplein in Gent De Mule Jenny, anno 2019 in het Industriemuseum Lieven Bauwens en zijn Mule Jenny in het voormalige MIAT (de pop is gemaakt naar een schilderij van Félix Cogen in het Brusselse Legermuseum) Lieven Bauwens (Gent, 14 juni 1769 – Parijs, 17 maart 1822) was een Zuid-Nederlands ondernemer en industrieel spion. Hij bracht de Engelse katoentechnologie naar Europa. Jeugd Bauwens werd geboren in de Waaistraat in Gent als zoon van George …
George Band Información personalNacimiento 2 de febrero de 1929 Taiwán (Taiwán) Fallecimiento 26 de agosto de 2011 (82 años)Hampshire (Reino Unido) Causa de muerte Enfermedad Nacionalidad BritánicaFamiliaHijos 3 EducaciónEducado en Escuela Imperial de LondresQueens' College, CambridgeEltham College Información profesionalOcupación Montañero y geólogo Carrera deportivaDeporte Montañismo Distinciones Oficial de la Orden del Imperio BritánicoMungo Park Medal (1955) [editar dat…
Hàu cửa sông Một con hàu cửa sông ở Cần Giờ được chế biến thành món hào sữa nướng phô mai Phân loại khoa học Giới: Animalia Ngành: Mollusca Lớp: Bivalvia Bộ: Ostreida Họ: Ostreidae Chi: Magallana Loài: M. ariakensis Danh pháp hai phần Magallana ariakensisFujita, 1913 Các đồng nghĩa Crassostrea ariakensis Hàu cửa sông (danh pháp hai phần: Magallana ariakensis) là loài nhuyển thể hai mảnh vỏ thuộc nhóm hàu trong chi …
ملاسالار (سقز) تقسيم إداري البلد إيران محافظة كردستان مقاطعة سقز قسم زيويه السكان التعداد السكاني 229 نسمة (في سنة 2006) تعديل مصدري - تعديل قرية ملاسالار (بالكردية: مەلاسالار) هي إحدى القرى التابعة لـتيله کو في ريف قسم زيويه من مقاطعة سقز، في محافظة كردستان الإيرانية. السكان …
21-ша Збаразька бригадаНа службі 1919Країна ЗУНРНалежність УГАВид сухопутні військаТип піхотаВійни/битви Чортківська офензива 21-ша Збаразька бригада — військове формування 4-го корпусу Української Галицької армії. Командир — отаман Богуслав Шашкевич. Відомос…
2022 smartphone by Apple iPhone 14 ProiPhone 14 Pro MaxiPhone 14 Pro in Deep PurpleBrandApple Inc.SloganPro. Beyond.ColorsDeep Purple, Gold, Silver, Space BlackGeneration16thModelPro: A2890, A2650, A2889, A2892Pro Max: A2894, A2651, A2893, A2895Compatible networksGSM/EDGE, UMTS/HSPA+, 4G LTE, 5G NRFirst releasedSeptember 16, 2022; 14 months ago (2022-09-16)Availability by region September 16, 2022 Australia Austria Belgium Canada China Czech Republic Denmark Finland France Germ…
هذه المقالة يتيمة إذ تصل إليها مقالات أخرى قليلة جدًا. فضلًا، ساعد بإضافة وصلة إليها في مقالات متعلقة بها. (يوليو 2019) ستانلي غيلين معلومات شخصية تاريخ الميلاد 10 أغسطس 1911 تاريخ الوفاة سنة 1978 مواطنة الولايات المتحدة الحياة العملية المهنة مهندس تعديل مصدري - تعديل …
Lamia (versión 2) de John William Waterhouse. La Leyenda castellana de la Encantada es un nombre genérico que hace referencia a un conjunto de tradiciones orales y leyendas mitológicas narradas en numerosas localidades españolas. A pesar de que existen múltiples variantes locales, son comunes una serie de elementos: la protagonista (una joven de larga cabellera), el momento temporal (Noche de San Juan), manifestación (peinándose) y otros elementos (espejo, peine —generalmente de oro—,…
Singaporean Malay-language television channel This article needs additional citations for verification. Please help improve this article by adding citations to reliable sources. Unsourced material may be challenged and removed.Find sources: Suria TV channel – news · newspapers · books · scholar · JSTOR (July 2016) (Learn how and when to remove this template message) For other uses, see Suria. Television channel SuriaCountrySingaporeMalaysia (Johor, S…
Raja Willem-Alexander dari BelandaRaja Belanda (gelar lain)Raja Willem-Alexander pada tahun 2013Raja Kerajaan BelandaBerkuasa30 April 2013 – Sekarang (10 tahun, 222 hari)PendahuluBeatrixPutri MahkotaCatharina-AmaliaPerdana MenteriMark RuttePangeran OranyePeriode30 April 1980 - 30 April 2013 (33 tahun, 0 hari)PendahuluPangeran AlexanderPenerusCatharina-Amalia sebagai Putri OranyeInformasi pribadiKelahiran27 April 1967 (umur 56) Utrecht, BelandaWangsaWangsa Oranye-Nassau…
Peer-to-peer file sharing application This article needs additional citations for verification. Please help improve this article by adding citations to reliable sources. Unsourced material may be challenged and removed.Find sources: Kazaa – news · newspapers · books · scholar · JSTOR (August 2011) (Learn how and when to remove this template message) Developer(s)Sharman NetworksInitial releaseMarch 1, 2001; 22 years ago (2001-03-01)Final …
Polish football manager and former player Jan Urban Urban in 2015 as manager of Lech PoznańPersonal informationDate of birth (1962-05-14) 14 May 1962 (age 61)Place of birth Jaworzno, PolandHeight 1.79 m (5 ft 10+1⁄2 in)Position(s) StrikerTeam informationCurrent team Górnik Zabrze (manager)Youth career1980–1981 Victoria JaworznoSenior career*Years Team Apps (Gls)1981–1985 Zagłębie Sosnowiec 113 (23)1985–1989 Górnik Zabrze 124 (54)1989–1994 Osasuna 168 (48)19…