Остановить роботов-убийц! Лоббисты, борются за спасение Европы от плохого ИИ

Лоббистская группа, поддерживаемая Илоном Маском и связанная с противоречивой идеологией, популярной среди технологических миллиардеров, борется за то, чтобы роботы-убийцы не уничтожали человечество. Чтобы избежать этого группа взялась за Европейский закон об искусственном интеллекте. Эта организация и ее учредители попали в поле зрения Politico.

Институт жизни будущего (The Future of Life Institute, FLI) за последний год оказал влияние на некоторые из наиболее спорных элементов Закона об ИИ. Несмотря на связи группы с Силиконовой долиной, крупные технологические гиганты, такие как Google и Microsoft, оказались на проигравшей стороне в споре с FLI.

В пузыре ЕС прибытие группы, чьи действия окрашены страхом перед катастрофой, вызванной ИИ, а не заурядными заботами о защите прав потребителей, было воспринято как космический корабль, приземляющийся на кольцевой развязке Шумана. Некоторых беспокоит, что Институт олицетворяет технологическое беспокойство по поводу маловероятных угроз, которые могут отвлечь внимание от более насущных проблем. Но большинство согласны с тем, что во время своего пребывания в Брюсселе FLI был эффективным.

«Они довольно прагматичны и обладают юридическими и техническими знаниями», — сказал Кай Зеннер, советник по цифровой политике правоцентристского депутата Европарламента Акселя Восса, который работает над Законом об ИИ. «Иногда они слишком беспокоятся о технологиях, но они поднимают много хороших моментов».

Созданная в 2014 году академиком Массачусетского технологического института Максом Тегмарком и поддерживаемая грандами технологий, включая Маска, Яаном Таллином из Skype и крипто-вундеркиндом Виталиком Бутерином, FLI является некоммерческой организацией, занимающейся борьбой с «экзистенциальными рисками» — событиями, способными уничтожить или обречь человечество. Среди ее внешних советников есть и другие горячие головы, такие как актеры Морган Фриман и Алан Алда, а также известные ученые Мартин (Лорд) Рис и Ник Бостром.

Главной из этих угроз и приоритетов FLI считает взбесившийся искусственный интеллект.

«Мы видели авиакатастрофы, потому что нельзя было отменить решение автопилот нельзя было отменить. Мы видели штурм Капитолия США, потому что алгоритм был обучен максимизировать взаимодействие. Сегодня вред от сбоя безопасности ИИ может увеличиваться, по мере того, как эти системы становятся более мощными, вред может увеличиваться»,

— сказал в интервью Марк Бракел, директор FLI по европейской политике.

Но лоббистская группа сталкивается с двумя проблемами с общественностью. Во-первых, Маск, его самый известный покровитель, оказался в центре бури, поскольку он начал массовые увольнения в Twitter как его новый владелец, привлекая внимание и регулирующих органов. Противоречия Маска могут заставить законодателей нервничать в разговоре с FLI. Во-вторых, связи группы с набором убеждений, известных как эффективный альтруизм, вызывают удивление: ее идеологи с совсем недавно обвинялись в качестве движущей силы скандала вокруг биржи криптовалют FTX

Как FLI проткнула пузырь

Прибытие лоббистской группы, борющейся с вымиранием, затеянным искусственным интеллектом и роботами-убийцами, должно было освежить вялую политику Брюсселя.

Офис FLI в Брюсселе открылся в середине 2021 года, когда начались обсуждения предложения Европейской комиссии о Законе об искусственном интеллекте.

«Мы бы предпочли, чтобы ИИ разрабатывался в Европе, где будут действовать правила, — сказал Бракел. — Мы надеемся, что люди черпают вдохновение из ЕС».

Бывший дипломат, уроженец Нидерландов Бракель присоединился к институту в мае 2021 года. Он решил работать в области политики в области искусственного интеллекта как в области, которая была одновременно эффективной и недостаточно обсуждаемой. Два месяца спустя к нему присоединился исследователь политики Ристо Уук. Опытный цифровой оператор — он публикует свои анализы и информационные бюллетени с домена Artificialintelligenceact.eu — Уук ранее проводил исследования в области ИИ для Комиссии и Всемирного экономического форума. Он присоединился к FLI из-за философской близости: как и Тегмарк, Уук разделяет принципы эффективного альтруизма, системы ценностей, предписывающей использование веских доказательств для принятия решения о том, как принести пользу наибольшему количеству людей.

С момента основания в Брюсселе команда института из трех человек (с помощью Тегмарка и других, включая юридическую фирму Dentons) ловко возглавила усилия по лоббированию малоизвестных проблем ИИ.

Доказательство A: ИИ общего назначения — программное обеспечение, такое как инструменты для распознавания речи или создания изображений, используемые в широком спектре контекстов и иногда подверженные предвзятости и опасным неточностям (например, в медицинских учреждениях). ИИ общего назначения не упоминался в предложении Комиссии, но вошел в окончательный текст Совета ЕС и гарантированно фигурирует в позиции парламента.

«Мы вышли и сказали: «Есть новый класс ИИ — системы ИИ общего назначения — и Закон об ИИ их вообще не рассматривает». Вам следует беспокоиться об этом», — сказал Бракел. «Этого не было ни у кого в поле зрения. Теперь оно есть».

Группа также играет на опасениях европейцев перед технологическим господством США и Китая. «Системы искусственного интеллекта общего назначения создаются в основном в США и Китае, и это может нанести ущерб инновациям в Европе, если вы не обеспечите их соответствие некоторым требованиям», — сказал Бракел, добавив, что этот аргумент находит отклик у правоцентристских законодателей, с которыми он недавно познакомился.

Еще одним увлечением FLI является запрет ИИ, способного манипулировать поведением людей. Первоначальное предложение запрещает манипулятивный ИИ, но это ограничивается «подсознательными» методами, которые, по мнению Брейкела, создадут лазейки.

Но содокладчик Закона об искусственном интеллекте, румынский депутат от Renew Драгош Тудораче, теперь настаивает на том, чтобы сделать запрет более всеобъемлющим. «Если эта поправка будет принята, мы будем намного счастливее, чем с нынешним текстом», — сказал Бракел.

Настолько умный, что вызвал крах криптовалюты

Хотя вклад группы в ключевые положения законопроекта об искусственном интеллекте приветствовался, многие в истеблишменте Брюсселя косо смотрят на ее мировоззрение.

Тегмарк и другие сторонники FLI придерживаются так называемого эффективного альтруизма (или EA). Направление утилитаризма, систематизированное философом Уильямом Макаскиллом, чью работу Маск назвал «близкой к моей философии», — EA диктует, что нужно улучшать жизнь как можно большего числа людей, используя рационалистический подход, основанный на фактах. На базовом уровне это означает пожертвование больших кусков своего дохода компетентным благотворительным организациям. Более радикальное, долгосрочное направление эффективного альтруизма требует, чтобы кто-то стремился минимизировать риски, способные убить многих людей — и особенно будущих людей, которых будет намного больше, чем существующих. Это означает, что предотвращение потенциального появления ИИ, ценности которого противоречат благополучию человечества, должно быть в числе первых задач.

Критический взгляд на FLI заключается в том, что он продвигает эту интерпретацию так называемой программы эффективного альтруизма, которая якобы не интересуется текущими бедами мира, такими как расизм, сексизм и голод, и сосредоточена на научно-фантастических угрозах для еще не существующих людей. Тимнит Гебру, исследователь ИИ, чей резкий уход из Google попал в заголовки газет в 2020 году, раскритиковал FLI в Твиттере, выразив «огромную обеспокоенность» по этому поводу.

«Их поддерживают миллиардеры, в том числе Илон Маск, — это уже должно вызывать у людей подозрения», — сказал Гебру в интервью. «Все поле вокруг безопасности ИИ состоит из множества «институтов» и компаний, в которые миллиардеры вкладывают деньги. Но их концепция безопасности ИИ не имеет ничего общего с текущим вредом для маргинализированных групп — они хотят переориентировать весь разговор на предотвращение этого. Апокалипсис ИИ».

Репутация эффективного альтруизма сильно пострадала в последние недели после падения FTX, обанкротившейся биржи, которая потеряла не менее 1 миллиарда долларов криптовалютных активов клиентов. Его опальный генеральный директор Сэм Бэнкман-Фрид был одним из любимцев эффективного альтруизма, рассказывая в интервью о своем плане заработать миллионы и отдать их на благотворительность. Когда FTX рухнул, комментаторы утверждали, что идеология эффективного альтруизма заставила Бэнкмана-Фрида срезать углы и рационализировать свое безрассудство.

И Макаскилл, и донор FLI Бутерин защищали ЭА в Твиттере, говоря, что действия Бэнкман-Фрида противоречат принципам философии. «Автоматическое понижение рейтинга всего, во что верил СБФF, — это ошибка», — написал Бутерин, который изобрел блокчейн Ethereum и финансирует стипендию FLI для исследования экзистенциальных рисков ИИ.

Бракел сказал, что FLI и ЭА- это две разные вещи, и защита FLI была сосредоточена на текущих проблемах, от предвзятого программного обеспечения до автономного оружия, например. на уровне ООН. «Требуем ли мы много времени, думая о том, как будет выглядеть мир через 400 лет? Нет, — сказал он. (Ни Бракель, ни представитель FLI в ЕС Клаудия Преттнер не называют себя эффективными альтруистами.)

Калифорнийская идеология

Другая критика усилий FLI по предотвращению злого ИИ утверждает, что они скрывают техно-утопическое стремление разработать доброжелательный ИИ человеческого уровня. На конференции 2017 года консультанты FLI, включая Маска, Тегмарка и Таллина из Skype, обсуждали вероятность и желательность искусственного интеллекта, который умнее человека. Большинство участников дискуссии считали, что «сверхразум» должен быть изобретен; половина из них посчитала это желательным. Результатом конференции стала серия (довольно умеренных) руководств по разработке полезного ИИ, которые Бракел назвал одним из основополагающих документов FLI.

Этот технооптимизм привел Эмиля П. Торреса, доктора философии. кандидат философии, который раньше сотрудничал с FLI, в конечном итоге выходу из организации. «Похоже, никто из них не считает, что, возможно, нам следует изучить какой-то мораторий», — сказал Торрес. По словам Торреса, поднятие таких вопросов с сотрудником FLI привело бы к своего рода отлучению от церкви. (Статьи Торреса были удалены с веб-сайта FLI.)

В Брюсселе опасаются, что в будущем FLI может изменить курс своего нынешнего приземленного воплощения и направить дебаты об ИИ в сторону далеко идущих сценариев. «Обсуждая ИИ на уровне ЕС, мы хотели провести четкое различие между скучными и конкретными системами ИИ и научно-фантастическими вопросами», — сказал Даниэль Лойфер, лоббист неправительственной организации по защите цифровых прав Access Now. «Когда происходили более ранние обсуждения ЕС по регулированию ИИ, в Брюсселе не было организаций, уделяющих внимание таким темам, как сверхразум — хорошо, что дебаты не пошли в этом направлении».

Те, кто считает FLI порождением калифорнийского футуризма, указывают на его правление и кошелек. Помимо Маска, Таллина и Тегмарка, среди доноров и консультантов есть исследователи из Google и OpenAI, Open Philanthropy соучредителя Meta Дастина Московица, Инициатива Беркли по экзистенциальным рискам (которая, в свою очередь, получила финансирование от FTX) и актер Морган Фриман.

В 2020 году большая часть глобального финансирования FLI (276 000 долларов из 482 479 долларов) поступила от Фонда сообщества Силиконовой долины, благотворительной организации, пользующейся поддержкой крупных технологических воротил, таких как Марк Цукерберг. Отчет за 2021 еще не опубликован.

Бракел отрицал, что FLI дружит с Силиконовой долиной, заявив, что работа организации над ИИ общего назначения усложнила жизнь технологическим компаниям. Бракел сказал, что никогда не разговаривал с Маском. Тем временем Тегмарк поддерживает регулярные контакты с членами научно-консультативного совета, в который входит Маск.

По мнению Бракела, то, что делает FLI, сродни ранней климатической активности. «Сейчас мы наблюдаем самый теплый октябрь за всю историю. Мы беспокоимся об этом сегодня, но мы также беспокоимся о последствиях через 80 лет», — сказал он в прошлом месяце. «[Сегодня] есть сбои в безопасности ИИ — и по мере того, как эти системы становятся более мощными, вред может стать еще больше».