Спіралі омани

foreignaffairs - september 2022
Як Штучний інтелект спотворює процес прийняття рішень і робить диктаторів небезпечнішими

переклад: Дмитро Єрмолаєв, головред SGS
ГЕНРІ ФАРРЕЛЛ - професор міжнародних відносин Фонду Ставроса Ніархоса Агора в Університеті Джона Гопкінса.
АБРАХАМ НЬЮМАН - професор державного управління в Школі дипломатичної служби імені Едмунда А. Уолша при Джорджтаунському університеті.
ДЖЕРЕМІ УОЛЛЕС — доцент кафедри державного управління Корнельського університету.
У політичних колах дискусії про штучний інтелект незмінно протиставляють Китай Сполученим Штатам у боротьбі за технологічну перевагу. Якщо ключовим ресурсом є дані, то Китай з його понад мільярдами громадян і слабким захистом від державного стеження, схоже, приречений на перемогу. Кай-Фу Лі, відомий науковець з обчислювальних технологій, стверджував, що дані — це нова нафта, а Китай — нова ОПЕК. Однак якщо передові технології забезпечують перевагу, то Сполучені Штати з їхньою системою університетів світового класу та талановитою робочою силою все ще мають шанс вийти вперед. Для обох країн експерти припускають, що перевага в штучному інтелекті природно призведе до ширшої економічної та військової переваги.

Але міркування про штучний інтелект з точки зору гонки за домінування упускає з уваги більш фундаментальні способи, якими ШІ трансформує глобальну політику. ШІ змінить не стільки суперництво між державами, скільки самих суперників. Сполучені Штати є демократією, тоді як Китай є авторитарним режимом, а машинне навчання кидає виклик кожній політичній системі по-своєму. Виклики таким демократіям, як Сполучені Штати, надто очевидні. Машинне навчання може посилити поляризацію — змінити онлайн-світ для сприяння політичному розколу. Це, безсумнівно, посилить дезінформацію в майбутньому, породжуючи переконливі фальшиві висловлювання у великому масштабі. Виклики автократіям більш тонкі, але, ймовірно, більш агресивні. Подібно до того, як машинне навчання відображає та зміцнює поділ у демократії, воно може заплутати автократії, створюючи фальшиву видимість консенсусу та приховуючи глибинні суспільні тріщини, поки не стане надто пізно.

Ранні піонери штучного інтелекту, зокрема політолог Герберт Саймон, зрозуміли, що технології штучного інтелекту мають більше спільного з ринками, бюрократією та політичними інститутами, ніж із простими інженерними програмами. Інший піонер штучного інтелекту Норберт Вінер описав штучний інтелект як «кібернетичну» систему, яка може реагувати та адаптуватися до зворотного зв'язку. Ні Саймон, ні Вінер не передбачали, як машинне навчання домінуватиме у ШІ, але його еволюція відповідає їхньому способу мислення. Facebook і Google використовують машинне навчання як аналітичний механізм самокоригованої системи, яка постійно оновлює своє розуміння даних залежно від того, успішні чи невдалі її прогнози. Саме ця петля між статистичним аналізом і зворотним зв'язком із навколишнього середовища зробила машинне навчання такою величезною силою.

Набагато гірше розуміють те, що демократія й авторитаризм також є кібернетичними системами. За обох форм правління уряди проводять політику, а потім намагаються з'ясувати, чи була ця політика успішною чи невдалою. У демократичних країнах голоси та голосування забезпечують потужний зворотний зв'язок про те, чи справді той чи інший підхід працює. Авторитарним системам історично було набагато важче отримати хороший зворотній зв'язок. До епохи інформації вони покладалися не лише на внутрішні дані, але й на петиції та таємні опитування громадської думки, щоб спробувати з'ясувати, у що вірять їхні громадяни.

Зараз машинне навчання руйнує традиційні форми демократичного зворотного зв'язку (голоси та голосування), оскільки нові технології сприяють дезінформації та погіршують існуючі упередження, сприймаючи упередження, приховані в даних, і впевнено перетворюючи їх на невірні твердження. Тим часом для автократів, які нишпорять у темряві, машинне навчання виглядає як відповідь на їхні молитви. Така технологія може сказати правителям, чи подобається їхнім підданим те, що вони роблять, без клопоту з опитуваннями чи політичних ризиків відкритих дебатів і виборів. З цієї причини багато спостерігачів стурбовані тим, що прогрес у штучному інтелекті лише зміцнить руку диктаторів і дозволить їм контролювати свої суспільства.

Але правда складніша. Упередженість є очевидною проблемою для демократій. Але оскільки це більш помітно, громадяни можуть пом'якшити його за допомогою інших форм зворотного зв'язку. Коли, наприклад, расова група бачить, що алгоритми найму на роботу є упередженими проти них, вони можуть протестувати та шукати відшкодування з деякими шансами на успіх. Авторитарні країни, ймовірно, принаймні так само схильні до упередженості, як і демократії, можливо, більше. Значна частина цієї упередженості, ймовірно, буде непомітною, особливо для осіб, які приймають рішення нагорі. Це значно ускладнює виправлення, навіть якщо лідери бачать, що щось потрібно виправити.

Всупереч загальноприйнятій думці, ШІ може серйозно підірвати автократичні режими, зміцнюючи їхні власні ідеології та фантазії за рахунок більш точного розуміння реального світу. Демократичні країни можуть виявити, що коли мова заходить про штучний інтелект, головним викликом двадцять першого століття є не перемога в битві за технологічне домінування. Натомість їм доведеться боротися з авторитарними країнами, які опинилися в муках спіралі оман, що живиться за допомогою ШІ.
ПОГАНИЙ ЗВОРОТНІЙ ЗВ'ЯЗОК
Більшість дискусій про ШІ пов'язані з машинним навчанням — статистичними алгоритмами, які виділяють зв'язки між даними. Ці алгоритми роблять припущення: чи є собака на цій фотографії? Чи виграє ця шахова стратегія партію за десять ходів? Яке наступне слово в цьому напівзакінченому реченні? Так звана цільова функція, математичний засіб підрахунку результатів, може винагородити алгоритм, якщо він вгадає правильно. Так працює комерційний штучний інтелект. YouTube, наприклад, хоче підтримувати зацікавленість своїх користувачів, переглядом більшої кількості відео, щоб вони продовжували бачити рекламу. Цільова функція призначена для максимального залучення користувачів. Алгоритм намагається надати вміст, який утримує увагу користувача на сторінці. Залежно від того, правильним чи неправильним було його припущення, алгоритм оновлює свою модель того, на що користувач, швидше за все, відреагує.

Здатність машинного навчання автоматизувати цей цикл зворотного зв'язку з невеликим втручанням людини або взагалі без нього змінила електронну комерцію. Можливо, колись це дозволить створити повністю безпілотні автомобілі, хоча цей прогрес виявився набагато складнішою проблемою, ніж очікували інженери. Розробка автономної зброї є ще складнішою проблемою. Коли алгоритми стикаються з дійсно несподіваною інформацією, вони часто не можуть зрозуміти її. Інформація, яку людина може легко зрозуміти, але яку машинне навчання неправильно класифікує (відома як «конкурентні приклади»), може погано працювати. Наприклад, чорно-білі наклейки, розміщені на знаку зупинки, можуть перешкодити системі огляду безпілотного автомобіля розпізнати знак. Такі вразливості свідчать про очевидні обмеження корисності штучного інтелекту під час війни.

Занурення в складність машинного навчання допомагає зрозуміти дебати про технологічне домінування. Це пояснює, чому деякі мислителі, наприклад комп'ютерник Лі, вважають, що дані є такими важливими. Чим більше даних у вас є, тим швидше ви зможете покращити продуктивність свого алгоритму, повторюючи незначну зміну за незначною зміною, доки не досягнете вирішальної переваги. Але машинне навчання має свої межі. Наприклад, незважаючи на величезні інвестиції технологічних фірм, алгоритми набагато менш ефективні, ніж прийнято вважати, щоб змусити людей купувати один майже ідентичний продукт замість іншого. Надійно маніпулювати поверхневими уподобаннями важко, і, ймовірно, набагато важче змінити глибоко укорінені думки та переконання людей.

Загальний штучний інтелект, система, яка може отримати уроки з одного контексту та застосувати їх в іншому, як це можуть зробити люди, стикається з подібними обмеженнями. Статистичні моделі Netflix щодо нахилів і вподобань користувачів майже напевно відрізняються від Amazon, навіть якщо обидва намагаються змоделювати тих самих людей, які стикаються з подібними рішеннями. Домінування в одному секторі штучного інтелекту, як-от показ коротких відеороликів, які захоплюють підлітків (тріумф додатка TikTok), нелегко перетворити на домінування в іншому, наприклад, створення автономних систем зброї на полі бою. Успіх алгоритму часто залежить від самих інженерів-людей, які можуть перекласти уроки в різні програми, а не від самої технології. Поки що ці проблеми залишаються невирішеними.

Зміщення також може проникнути в код. Коли Amazon спробувала застосувати машинне навчання до підбору персоналу, вона навчила алгоритм на даних із резюме, які оцінили рекрутери. У результаті система відтворювала упередження, приховані в рішеннях людей, дискримінуючи резюме жінок. Такі проблеми можуть самозміцнюватися. Як зазначив соціолог Руха Бенджамін, якби політики використовували машинне навчання, щоб вирішити, куди направити поліцію, технологія могла б допомогти їм розподілити більше поліції в райони з високим рівнем арештів, у процесі надсилаючи більше поліції в райони з расовими групами, до яких поліція продемонструвала упередженість.

Це може призвести до нових арештів, які, у свою чергу, зміцнять алгоритм у замкнутому колі.

Стара програмістська приказка «сміття всередину, сміття геть» має інше значення у світі, де вхідні дані впливають на вихідні, і навпаки. Без належної зовнішньої корекції алгоритми машинного навчання можуть набути смаку до сміття, яке вони самі виробляють, породжуючи цикл неправильного прийняття рішень. Дуже часто політики ставляться до інструментів машинного навчання як до мудрих і безпристрасних оракулів, а не як до інструментів, які можуть помилитися, що може посилити проблеми, які вони мають на меті вирішити.
ОКЛИК І ВІДПОВІДЬ
Політичні системи також є системами зворотного зв'язку. У демократичних країнах громадськість буквально оцінює та ставить бали лідерам на виборах, які мають бути вільними та чесними. Політичні партії дають обіцянки з метою отримати владу й утримати її. Легальна опозиція висвітлює помилки уряду, тоді як вільна преса повідомляє про суперечки та злочини. Представники чинної влади регулярно зустрічаються з виборцями та дізнаються, чи заслужили вони довіру суспільства чи втратили її, у постійно повторюваному циклі.

Але зворотній зв'язок у демократичних суспільствах не працює ідеально. Громадськість може не мати глибокого розуміння політики, і вона може карати уряди за речі, які не залежать від них. Політики та їхні співробітники можуть неправильно зрозуміти, чого хоче громадськість. В опозиції є стимули брехати і перебільшувати. Змагання на виборах коштують грошей, а реальні рішення іноді приймаються за зачиненими дверима. ЗМІ можуть бути упередженими або дбати більше про те, щоб розважити своїх споживачів, ніж про їх повчання.

Все одно зворотний зв'язок робить навчання можливим. Політики дізнаються, чого хоче громадськість. Громадськість дізнається, чого вона може і чого не може очікувати. Люди можуть відкрито критикувати помилки уряду, не будучи замкненими. Коли виникають нові проблеми, нові групи можуть організовуватися, щоб оприлюднити їх і спробувати переконати інших вирішити їх. Усе це дозволяє політикам і урядам взаємодіяти зі складним і постійно мінливим світом.

Зворотний зв'язок працює зовсім інакше в автократії. Лідерів обирають не шляхом вільних і чесних виборів, а шляхом безжальних боїв за престолонаслідування та часто непрозорих систем внутрішнього просування. Навіть там, де опозиція уряду є формально легальною, вона не заохочується, іноді жорстоко. Якщо ЗМІ критикують уряд, їм загрожує судовий позов і насильство. Вибори, коли вони відбуваються, систематично схиляються на користь чинних президентів. Громадяни, які виступають проти своїх лідерів, не просто стикаються з труднощами в організації; їм загрожує суворе покарання за висловлювання, включаючи ув'язнення та смерть. З усіх цих причин авторитарні уряди часто погано розуміють, як влаштований світ і чого хочуть вони та їхні громадяни.

Тому такі системи стикаються з компромісом між короткостроковою політичною стабільністю та ефективним формуванням політики; прагнення першого спонукає авторитарних лідерів блокувати аутсайдерів від висловлювання політичних думок, тоді як потреба в другому вимагає від них певного уявлення про те, що відбувається у світі та в їхніх суспільствах. Через жорсткий контроль над інформацією авторитарні правителі не можуть покладатися на громадян, медіа та голоси опозиції, щоб забезпечити коригувальні відгуки, як це роблять демократичні лідери. Результатом є те, що вони ризикують провалити політику, що може підірвати їх довгострокову легітимність і здатність керувати. Згубне рішення російського президента Володимира Путіна вторгнутися в Україну, наприклад, схоже, ґрунтувалося на неточній оцінці українського морального стану та сили його власної армії.

Ще до винаходу машинного навчання авторитарні правителі використовували кількісні показники як грубу та недосконалу проксі для зворотного зв'язку з громадськістю. Візьмемо Китай, який десятиліттями намагався поєднати децентралізовану ринкову економіку з централізованим політичним наглядом за кількома ключовими статистичними даними, зокрема ВВП. Місцеві посадовці могли отримати підвищення, якщо їхні регіони розвивалися особливо швидко. Але обмежене кількісне бачення Пекіна не дало їм достатнього стимулу для вирішення таких гострих проблем, як корупція, борги та забруднення. Не дивно, що місцеві чиновники часто маніпулювали статистичними даними або проводили політику, яка підвищувала ВВП у короткостроковій перспективі, залишаючи довгострокові проблеми своїм наступникам.

Світ побачив цю динаміку під час першої реакції Китаю на пандемію COVID-19, яка почалася в провінції Хубей наприкінці 2019 року. Після кризи SARS 2003 року Китай створив систему звітності про хвороби в Інтернеті, але замість того, щоб використовувати її місцева влада в Ухані, столиці провінції Хубей, покарала лікаря, який першим повідомив про наявність захворювання, схожого на SARS. Уряд Уханя наполегливо працював, щоб інформація про спалах не потрапила до Пекіна, постійно повторюючи, що «нових випадків немає» до завершення важливих місцевих політичних зустрічей. Лікар Лі Веньлян сам помер від хвороби 7 лютого, викликавши шалене обурення по всій країні.

Потім Пекін зреагував на пандемію, прийнявши підхід «нульового COVID», який використовував примусові заходи для придушення кількості випадків. Ця політика спрацювала добре в короткостроковій перспективі, але з огляду на надзвичайну передачу варіанту Omicron політика нульового запобігання COVID-19 дедалі частіше, здається, призводила лише до піррових перемог, вимагаючи масових карантинів, які залишили людей голодними, а економіку – у руїні. Але він залишався успішним у досягненні одного критично важливого показника — утримання низької кількості заражень.

Дані, здається, надають об'єктивні показники, які пояснюють світ і його проблеми без жодних політичних ризиків і незручностей виборів чи вільних ЗМІ. Але не існує такого поняття, як прийняття рішень, позбавлених політики. Безладність демократії та ризик безладних процесів зворотного зв'язку очевидні кожному, хто звертає увагу на політику США. Автократії страждають від подібних проблем, хоча вони менш помітні відразу. Чиновники чи громадяни, які відмовляються перетворити свій гнів на широкомасштабні протести, можуть стикнутися із серйозними наслідками, у короткостроковій перспективі підвищуючи ймовірність неправильних рішень, а в довгостроковій — крах режиму.
ЦЕ ПАСТКА?
Найактуальнішим питанням є не те, виграють чи програють Сполучені Штати та Китай у змаганні за домінування ШІ. Сам штучний інтелект змінить різні цикли зворотного зв'язку, на які покладаються демократії та автократії, керуючи своїми суспільствами. Багато спостерігачів припускають, що коли машинне навчання стає все більш поширеним, воно неминуче зашкодить демократії та допоможе автократії. На їхню думку, алгоритми соціальних медіа, які оптимізують залучення, наприклад, можуть підірвати демократію, погіршуючи якість зворотного зв'язку громадян. Коли люди клацають відео за відео, алгоритм YouTube пропонує шокуючий і тривожний вміст, щоб зацікавити їх.

Цей вміст часто містить теорії змови або екстремальні політичні погляди, які заманюють громадян у темну країну чудес, де все перевернуто з ніг на голову.

Навпаки, машинне навчання має допомогти автократіям, сприяючи більшому контролю над їхніми людьми. Історик Юваль Харарі та низка інших вчених стверджують, що ШІ «схиляється до тиранії». Згідно з цим табором, ШІ централізує дані та владу, дозволяючи лідерам маніпулювати звичайними громадянами, пропонуючи їм інформацію, яка розрахована на натискання їхніх «емоційних кнопок». Цей нескінченно повторюваний процес зворотного зв'язку та відповіді має створити невидиму та ефективну форму соціального контролю. За цим розщрахунком соціальні медіа дозволяють авторитарним урядам контролювати пульс суспільства, а також захоплювати його серце.

Але ці аргументи спираються на невизначені основи. Хоча витоки зсередини Facebook свідчать про те, що алгоритми справді можуть спрямовувати людей до радикального контенту, останні дослідження показують, що алгоритми самі по собі не змінюють те, що люди шукають. Люди, які шукають екстремальні відео на YouTube, швидше за все, будуть спрямовані на те, що вони хочуть, але люди, які ще не зацікавлені в небезпечному вмісті, навряд чи дотримуватимуться рекомендацій алгоритмів. Якби зворотній зв'язок у демократичних суспільствах ставав дедалі більш безладним, машинне навчання не було б цілком виною; це б лише простягло руку допомоги.

Немає вагомих доказів того, що машинне навчання дає можливість узагальненого контролю розуму, який знищить демократію та посилить авторитаризм. Якщо алгоритми не надто ефективні в тому, щоб спонукати людей купувати речі, вони, ймовірно, набагато гірші в тому, щоб змусити їх змінити свою думку щодо речей, які стосуються близьких цінностей, таких як політика. Твердження про те, що Cambridge Analytica, британська політична консалтингова фірма, застосувала якусь магічну техніку, щоб сфальсифікувати президентські вибори в США 2016 року для Дональда Трампа, розвіялися. Передбачуваний секретний соус фірми, наданий кампанії Трампа, здавалося, складається зі стандартних методів психометричного націлювання — використання опитувань особистості для класифікації людей — з обмеженою корисністю.

Дійсно, повністю автоматизований авторитаризм, керований даними, може виявитися пасткою для таких держав, як Китай, які зосереджують повноваження в крихітній ізольованій групі осіб, що приймають рішення. У демократичних країнах є механізми виправлення — альтернативні форми зворотного зв'язку громадян, які можуть перевіряти уряди, якщо вони збиваються з курсу. Авторитарні уряди, оскільки вони подвоюють машинне навчання, не мають такого механізму. Хоча повсюдний державний нагляд може виявитися ефективним у короткостроковій перспективі, небезпека полягає в тому, що авторитарні держави будуть підірвані формами самопідсилювальної упередженості, якій сприяє машинне навчання. Оскільки держава широко використовує машинне навчання, ідеологія лідера визначатиме, як використовується машинне навчання, цілі, навколо яких воно оптимізується, і як воно інтерпретує результати. Дані, отримані в результаті цього процесу, ймовірно, відображатимуть упередження лідера прямо щодо нього самого.

Як пояснив технолог Мацей Цегловський, машинне навчання — це «відмивання грошей заради упередженості», «чистий математичний апарат, який надає статус-кво аурі логічної неминучості». Що станеться, наприклад, коли штати почнуть використовувати машинне навчання, щоб виявляти скарги в соціальних мережах і видаляти їх? Лідерам буде важче побачити та виправити політичні помилки, навіть якщо ці помилки шкодять режиму. У дослідженні 2013 року було зроблено припущення, що Китай повільніше видаляв онлайн-скарги, ніж можна було очікувати, саме тому, що такі натиски надали корисну інформацію для керівництва. Але тепер, коли Пекін дедалі більше наголошує на соціальній гармонії та прагне захистити високопосадовців, такий підхід невтручання буде важче підтримувати.

Президент Китаю Сі Цзіньпін усвідомлює ці проблеми принаймні в деяких сферах політики. Він довго стверджував, що його кампанія проти бідності — спроба ліквідувати зубожіння в сільській місцевості — була знаковою перемогою завдяки розумним технологіям, великим даним і ШІ. Але з тих пір він визнав недоліки кампанії, включаючи випадки, коли чиновники виштовхували людей з їхніх сільських будинків і ховали їх у міських квартирах, щоб грати зі статистикою бідності. Оскільки переселенці знову впали в бідність, Сі хвилювався, що «єдині кількісні цілі» для рівня бідності можуть бути не правильним підходом у майбутньому. Дані справді можуть бути новою нафтою, але вони можуть забруднювати, а не посилювати здатність уряду керувати.

Ця проблема має наслідки для так званої системи соціального кредиту в Китаї, набору установ для відстеження просоціальної поведінки, яку західні коментатори описують як ідеально функціонуючий «режим стеження за допомогою ШІ, що порушує права людини». Як зазначили такі експерти з інформаційної політики, як Шазеда Ахмед і Карен Хао, система насправді набагато брудніша. Китайська система соціального кредитування насправді більше схожа на кредитну систему США, яка регулюється такими законами, як Закон про справедливу кредитну звітність, ніж на ідеальну антиутопію Оруелла.

Посилення машинного навчання також може призвести до того, що авторитарні режими подвоють погані рішення. Якщо машинне навчання навчено виявляти можливих дисидентів на основі записів про арешти, воно, ймовірно, створюватиме самозміцнювані упередження, подібні до тих, що спостерігаються в демократичних країнах, — відображаючи та підтверджуючи переконання адміністраторів щодо неприхильних соціальних груп і невблаганно закріплюючи автоматизовану підозру та негативну реакцію. У демократичних державах можливий публічний відпор, хоч і недосконалий. В автократичних режимах опір набагато важчий; без нього ці проблеми невидимі для тих, хто всередині системи, де чиновники та алгоритми мають однакові упередження. Замість доброї політики це призведе до зростання патологій, соціальної дисфункції, образи та, зрештою, хвилювань і нестабільності.


ШТУЧНИЙ ІНТЕЛЕКТ У ЯКОСТІ ЗБРОЇ
Міжнародна політика щодо ШІ не створить просту гонку за домінування. Грубе уявлення про те, що ця технологія є економічною та військовою зброєю і що дані є її силою, приховує багато реальних дій. Насправді найбільші політичні наслідки ШІ стосуються механізмів зворотного зв'язку, на які покладаються як демократичні, так і авторитарні країни. Деякі дані свідчать про те, що ШІ порушує зворотний зв'язок у демократичних країнах, хоча він не відіграє такої великої ролі, як багато хто припускає. Навпаки, чим більше авторитарні уряди покладаються на машинне навчання, тим більше вони рухатимуться в уявний світ, заснований на їхніх власних упередженнях, посилених технікою. У класичній книзі політолога Джеймса Скотта 1998 року «Бачити як держава» пояснюється, як держави двадцятого століття були сліпі до наслідків власних дій частково тому, що вони могли бачити світ лише через бюрократичні категорії та дані. Як стверджували соціолог Маріон Фуркад та інші, машинному навчанню можуть бути присутні ті самі проблеми, але ще більшого масштабу.

Ця проблема створює зовсім інший набір міжнародних викликів для таких демократій, як Сполучені Штати. Росія, наприклад, інвестувала в кампанії дезінформації, спрямовані на те, щоб посіяти плутанину та безлад серед російської громадськості, застосовуючи ті самі інструменти в демократичних країнах. Хоча прихильники свободи слова довго стверджували, що відповіддю на погані слова є більше слів, Путін вирішив, що найкращою відповіддю на більше слів є більше лихих слів. Тоді Росія скористалася відкритими системами зворотного зв'язку в демократичних країнах, щоб забруднити їх дезінформацією.

Однією з проблем, що швидко виникла, є те, як автократії, такі як Росія, можуть використати великі мовні моделі, нову форму штучного інтелекту, яка може створювати текст або зображення у відповідь на словесну підказку, щоб генерувати масштабну дезінформацію. Як попередили комп'ютерний науковець Тімніт Гебру та її колеги, такі програми, як система GPT-3 Open AI, можуть створювати очевидно плавний текст, який важко відрізнити від звичайного людського письма. BLOOM, нова модель великої мови з відкритим доступом, щойно була випущена для будь-кого. Її ліцензія вимагає від людей уникати зловживань, але це буде дуже важко контролювати.

Ці події створять серйозні проблеми для зворотного зв'язку в демократичних країнах. Поточні онлайн-системи коментування політики майже напевно приречені, оскільки вони потребують мало доказів, щоб встановити, чи коментатор є справжньою людиною. Підрядники великих телекомунікаційних компаній уже засипали Федеральну комісію зв'язку США фальшивими коментарями, пов'язаними з викраденими електронними адресами, у рамках своєї кампанії проти законів про нейтралітет мережі. Тим не менш, було легко визначити підступ, коли були опубліковані десятки тисяч майже однакових коментарів. Зараз або в самому найближчому майбутньому буде тривіально просто спонукати велику мовну модель написати, скажімо, 20 000 різних коментарів у стилі різких виборців, які засуджують мережевий нейтралітет.

Дезінформація, що підживлюється штучним інтелектом, може також отруїти колодязь для автократій. Оскільки авторитарні уряди сіють свої публічні дебати дезінформацією, то стане легше розбити опозицію, але важче сказати, у що насправді вірить громадськість, що значно ускладнить процес розробки політики. Авторитарним лідерам буде все важче уникати пишання власною пропозицєю, що змушує їх вважати, що громадяни терплять або навіть люблять дуже непопулярну політику.


СПІЛЬНІ ЗАГРОЗИ
Як би це було ділити світ з авторитарними державами, такими як Китай, якщо вони все більше потрапляють у пастку власних нездорових інформаційних петель? Що станеться, коли ці процеси перестануть забезпечувати кібернетичне керівництво, а натомість відображатимуть власні страхи та переконання правителів? Однією з егоцентричних відповідей демократичних конкурентів було б залишити автократів напризволяще, розглядаючи все, що послаблює авторитарні уряди, як чисту вигоду.

Однак така реакція може призвести до гуманітарної катастрофи. Багато з нинішніх упереджень китайської держави, наприклад, її політика щодо уйгурів, є явно злоякісними і можуть стати набагато гіршими. Попередні наслідки сліпоти Пекіна щодо реальності включають великий голод, який убив близько 30 мільйонів людей між 1959 і 1961 роками і був прискорений ідеологічно керованою політикою та прихований небажанням провінційних чиновників повідомляти точні статистичні дані. Навіть затяті циніки повинні визнати небезпеку зовнішньополітичних катастроф у Китаї та інших країнах, спричинених ШІ. Шляхом посилення націоналістичних упереджень, наприклад, штучний інтелект міг би легко зміцнити яструбині угруповання, які прагнуть брати участь у завоюванні територій.

Можливо, що ще більш цинічно, політики на Заході можуть піддатися спокусі використати замкнуті цикли авторитарних інформаційних систем. Поки що Сполучені Штати зосереджені на просуванні свободи Інтернету в автократичних суспільствах. Натомість він може спробувати погіршити авторитарну інформаційну проблему, посиливши петлі упередженості, до яких схильні ці режими. Це можна зробити шляхом псування адміністративних даних або заповнення авторитарних соціальних мереж дезінформацією. На жаль, немає віртуальної стіни, яка б розділяла демократичні та автократичні системи. Не тільки погані дані та божевільні переконання можуть просочитися в демократичні суспільства з авторитарних, але жахливі авторитарні рішення також можуть мати непередбачувані наслідки для демократичних країн. Оскільки уряди думають про штучний інтелект, вони повинні усвідомлювати, що ми живемо у взаємозалежному світі, де проблеми авторитарних урядів, швидше за все, перекинуться каскадом у демократії.

Отже, більш розумний підхід міг би пом'якшити слабкі сторони штучного інтелекту за допомогою спільних механізмів міжнародного управління. Наразі різні частини китайської держави не погоджуються щодо відповідної реакції на регулювання ШІ. Наприклад, Управління кіберпростору Китаю, його Академія інформаційних і комунікаційних технологій і Міністерство науки і технологій запропонували принципи регулювання ШІ. Дехто віддає перевагу моделі «зверху вниз», яка може обмежити приватний сектор і дати уряду розв'язку. Інші, принаймні неявно, також визнають небезпеку ШІ для уряду. Розробка широких міжнародних принципів регулювання може допомогти поширити знання про політичні ризики ШІ.

Цей підхід до співпраці може здатися дивним у контексті зростаючого суперництва між США та Китаєм. Але ретельно розроблена політика може прислужитися Вашингтону та його союзникам. Одним із небезпечних шляхів для Сполучених Штатів може бути втягнення в гонку за домінування ШІ, що ще більше розширить конкурентні відносини. Іншим було б спробувати погіршити проблеми зворотного зв'язку авторитаризму. Обидва ризикують катастрофою та можливою війною. Тоді набагато безпечніше для всіх урядів визнати спільні ризики штучного інтелекту та працювати разом, щоб зменшити їх.

джерело
~
Made on
Tilda