четверг, 13 апреля 2023 г.

Не-фашистский Искусственный Интеллект

 

В прошлом году Дэн МакКуиллан (Dan McQuillan) издал книгу Resisting AI. An Anti-fascist Approach to Artificial Intelligence, которая призывает к сопротивлению ИИ. Практика "глубокого обучения" может производить побочный ущерб, который невозможно исправить, а использование ИИ институциями способно усиливать социальную нестабильность и структурное насилие. Вместо того, чтобы помогать в решении текущих проблем, ИИ делает возможным "состояния исключения", которые определяют жизненные шансы людей и становятся частью фашистских решений применительно к обществу.  Антифашистский подход к ИИ направлен на исправление вычислительных пороков с заменой алгоритмов исключения феминистскими практиками заботы. Предлагается программа действий рабочих и народных форумов (советов) по  реструктуризации ИИ в соответствии с принципами взаимопомощи и солидарности. Отдавая приоритет сообществам, а не абстрактной оптимизации, книга намечает иную перспективу действий в нашем меняющемся мире.

Ниже приведен текст с той же повесткой, опубликованный в 2019 году в сборнике Propositions for Non-Fascist Living: Tentative and Urgent 
Dan McQuillan "Non-Fascist AI"

________________________________

Есть ли политическое в ИИ?

Прежде чем затевать разговор о не-фашистском ИИ, следует прояснить есть ли там (в ИИ) политическое? ИИ в том виде, как он реально существует, это просто машинное обучение и нейронные сети, а не пост-человеческий интеллект с собственной повесткой. Но имеют место авторитарные тенденции, связанные с ИИ, которые возникают как резонансные эффекты между конкретными операциями ИИ и политическими условиями в окружающем мире. И есть основания для беспокойства не только о способах использования ИИ, но и о свойствах, присущих самой технологии. Чтобы сделать эти свойства видимыми и поддающимися коррекции, нужно оценить фактическую работу ИИ.

Машинное обучение и нейронные сети - это формы вычислительного поиска паттернов. Удивительные способности ИИ распознавать лица или играть в Го появляются не от искры сознания в схеме, а в процессе бесконечного вычисления вероятностей. Чтобы сделать реальный мир доступным для ИИ, необходимо абстрагировать числовые характеристики и подвергнуть множество примеров через итерационным вычислениям с использованием целевой функции. Целевая функция определяет некоторое абстрактное математическое расстояние между текущей и точной категоризациями модели паттерна, и стремится к его минимизации или оптимизации. Действенной эту операцию делает сходимость вычислительных процедур (таких как "метод обратного распространения ошибки", минимизирующий ошибки при обучении многослойных нейронных сетей), обширность массивов данных, доступных в реальном времени, и развитие графических микропроцессоров, так называемых GPUs, способных справиться с необходимым объемом параллельных вычислений.

В результате произошел гигантский скачок в возможностях автоматизированных систем. Они могут распознавать лица так же хорошо как и мы, и , возможно, смогут выполнять сканирование рака с высокой точностью. А что насчет правоприменения? Судьи, принимающие решение об освобождении под залог, уже рассматривают данные о судимостях и причастности к нарушениям в прошлом; скорее всего, если расширить объем данных и пропустить всё это через наш ИИ, то можно получить более надежную  прогностическую модель. И здесь возникает первая проблема: в культуре, пропитанной верой в научный авторитет, эмпирические расчеты воспринимаются более значимыми, чем простой опыт. Неважно, что эти закономерности являются корреляциями, а не установлением причинности. Инженерная вера в способность к принятию решений - "солюционизм", характеризующий "Кремниевую долину", не видит препятствий для применения ИИ в сложных социальных контекстах, позволяя получать инсайты, которое прежде маскировались невнятными и субъективными рассуждениями.

Образ ИИ как формы вероятностного прогнозирования неизбежно получает преимущества в принятии решений: речь идёт о формах вмешательства, способных изменять ход событий. Это особенно привлекательно в период жесткой экономии и финансового кризиса. Целеустремленность ИИ видится способом сгладить противоречия между ограниченными в ресурсах службами и растущим спросом, а для корпораций - как способность добиваться результата при падающей прибыльности. По логике неолиберализма, лучшее решение получается на основе суммы сигналов свободного рынка, при том что целевые функции ИИ обеспечивают прогнозирование, суммарно обрабатывая векторы на массивах обучающих данных. Таким образом, оптимизация ИИ простирает неолиберальную логику на непосредственную будущность. Решения о размещении или изъятии ресурсов оборачиваются алгоритмическими схемами, переносящими будущее в настоящее. ИИ даёт генерализуемый технократический метод, сводящий сложные социальные вопросы к проблемам оптимизации. Подобно бюрократии в двадцатом веке, теперь ИИ готовится стать объединяющей логикой легитимации для корпораций и правительств.

ИИ фашист?

Вычислительная систематизиция, производимая ИИ, включается в процессы, которые ранее предполагали диалог, дискуссию и человеческое суждение. Т.о., благодаря эмпирической скорости и масштабу, наращиваются формы государственного управления и одновременно оттесняются способы принятия решений, которые ранее считались политическими. Это туман усиливается, когда задействуются нейронные сети, которые сталкиваются с проблемами интерпретируемости: объемные параллельные и итеративные вычисления, выполняемые нейронными сетями, не могут непосредственно переводиться обратно на язык, доступный человеческому мышлению. Однако возникающий риск заключается не в тирании машин, принимающих автоматические решения, а в усилении имеющихся человеческих тенденций к автоматизму. ИИ не только подрывает надлежащие правовые процедуры, но также порождает недомыслие, которое имела в виду Ханна Арендт, толкуя действия нацистского военного преступника Адольфа Эйхмана - неспособность критически воспринимать указания, отсутствие мыслей о последствиях, уверенность в необходимости выполнения приказа. Такова форма повседневного фашистского мышления, даже если заинтересованный в этом режим не является отчетливо ультраправым.

Прогностика ИИ порождает новые сферы, где проявляется режим включения и исключения в отношении ресурсов и возможностей. Объединяя принятие решения и приведение в действие, машинная систематизация ИИ получает силу закона, не будучи законом. Согласно Агамбену, эта "сила" является сигнатурой состояний исключения - условий, при которых права и гражданство приостанавливаются. Будничная работа алгоритмов не создаёт чрезвычайного положения per se, но учреждает непрерывную пошаговую модуляцию жизненных обстоятельств. И независимо от того, захвачено ли правительство ультраправыми политическими силами или просто их умиротворяет, правовые лакуны, которые создаёт ИИ, готовы стать векторами ультраправой политики. Это имел в виду Агамбен, говоря о фашистских государствах 1930-х годов - они были не диктатурами, а дуальными государствами с "дублирующими" структурами, действовавшими наряду с конституционными. Он призывает быть бдительным не к смешению законодательной и исполнительной власти, а к такому разделения закона и силы закона.

Классический ситуация исключения возникает, когда правительство объявляет чрезвычайное положение во время стихийного бедствия или гражданских беспорядков. Власти получают далеко идущие полномочия, а граждане теряют имевшуюся защиту, например, от задержания без суда и следствия. Исключительное положение, опосредованное цифровыми технологиями, - это, например, американский "Список нелетающих" (US No Fly List), в котором указаны люди, которым может быть произвольно отказано в праве посадки на самолет без объяснения причин. Невидимые алгоритмические решения об отказе в предоставлении ресурсов или запуске санкций в отношении отдельного лица или группы могут срабатывать подобным образом.

Но на этом пересечения с ультраправой политикой не заканчиваются. Специфика "производства знания с помощью ИИ" предполагает упрощения на основе данных, существенных для анализа, а сведение социальных проблем к вопросам исключения на основе природных характеристик - как раз и есть проявление политики правого популизма. Уместно спросить, не откажутся ли гигантские корпорации, связанные с ИИ, от предоставления рычагов массовой корреляции в распоряжение режимов, стремящихся к национальному возрождению через рационализированный этноцентризм? В то самое время, когда французский анархо-коммунист Даниэль Герен в 1936 году писал книгу о связях фашизма и большого бизнеса,  компания IBM Томаса Уотсона и ее немецкая дочка Dehomag с энтузиазмом поставляли нацистам технологию перфокарт Холлерита. А на современной фотографии из Давоса реакционный популистский президент Бразилии Жаир Болсонару сидит на обеде между Тимом Куком из Apple и Сатьей Наделлой из Microsoft.

Тем временем алгоритмические корреляции исследований генома используются для поддержания идей "расового реализма" и для продвижения нарратива о геномной иерархии. Это уже исторический альянс статистики и идеи "белого превосходства", поскольку математика логистической регрессии и корреляции, занимающая центральное место в машинном обучении, была разработана евгениками Фрэнсисом Гальтоном и Карлом Пирсоном в эпоху короля Эдуарда. Риск редуктивной оптимизации можно увидеть в превозношении "общего интеллекта" рядом выдающихся практиков ИИ. Это происходит при смешении настоящих достижений ИИ, то есть машинного обучения, и веры в то, что совершается шаг к  Искусственному Общему Интеллекту (AGI) - трансгуманистическому разуму воображаемого ИИ. В этом контексте примечательна не странная религиозная вера в пришествие высшего разума, а редуктивное отождествление разума с интеллектом и интеллекта с IQ. Эта форма ранжирования людей на основе метрики интеллекта, популярная у элиты "технарей" Кремниевой долины, оказывается логарифмической линейкой для так называемой "расовой науки", псевдоэмпирического обоснования расовой иерархии, исторического краеугольного камня в основании "белого превосходства".

Как возможно противостоять ИИ-фашисту?

Прежде чем говорить о не-фашистском ИИ, стоит продумать, как противостоять посягательствам склонного к фашизму ИИ. Благодушный либеральный взгляд состоит в том, чтобы как-то ограничить негативные последствия ИИ. Как и для самого ИИ здесь просматриваются как "слабый", так и "сильный" варианты. Слабая форма - чрезвычайно популярная забава - это продвижение этики ИИ, предлагаемой в 101й версии. Этот подход уже теряет позиции, поскольку становится ясно, что этика - лишь пиар-акция, призванная успокоить общественные страхи, пока индустрия продолжает безудержно внедрять. Сильной формой либерального сдерживания является принуждение к справедливости посредством закона; то есть корректировать дисбаланс, создаваемый ИИ, подобно борьбе с другими типами дискриминации. Однако при этом создается иллюзия, что общество уже является равноправным игровым полем, и скрываются структурные асимметрии, порождающие вполне легальную несправедливость, объем которой нарастает. Именно эта ситуация  усугубляется алгоритмическими системами.

Прогнозирующее распознавание паттернов, основанное на глубоком обучении, входит в нашу жизнь подобно системе с гранулярной разрешающей способностью Lidar ("Light Detection and Ranging" - обнаружение и определение дальности с помощью света). И - либо мы будем упорядочены этой силой, либо сами организуемся. Поэтому вопрос о не-фашистском ИИ - это вопрос самоорганизации и коллективного производства себя и сообщества на основе организации. Есть признаки сопротивления в отношениях на производстве, например, внутренние протесты в Google, Amazon, Microsoft и т.д., когда оспариваются социальные аспекты применяемых алгоритмов. Чтобы стать действительно эффективным, сопротивление таким "токсичным" приложениям должно учитываться на уровне широкой самоорганизации трудящихся с выдвижением альтернативного общественного видения. В 1970-х годах рабочие британской военной корпорации разработали План Лукаса, в котором предлагалась комплексная реструктуризация предприятия под общественно полезную продукцию. Тогда не только ставилось под сомнение целевое назначение работы, но и утверждалась роль рабочей организации. Что касается нынешних технических работников, то их несогласие обретет преобразующую силу, когда они попытаются строить новое обществе в оболочке старого. Сопротивление фашистскому ИИ усиливается там, где рабочее несогласие встречается с социальными движениями. 

Прорыв, связанный с современным ИИ, произошел благодаря огромному скачку в его способности распознавать лица... По иронии судьбы, распознавание лиц может стать поворотным моментом для социального протеста. Инженеры, стоящие за технологиями распознавания лиц,  сами активно призывают к введению ограничений. Проблема стала предметом озабоченности таких общественных движений, как Black Lives Matter, и более широких коалиций, встревоженных распространением автоматизированной слежки. Учитывая темпы внедрения ИИ во все аспекты социальной инфраструктуры, борьба за самоопределение повседневности может вызвать к жизни движение новых луддитов.  Луддиты, напомним, не выступали против технологий как таковых, а стремились "вывести из строя все механизмы, вредящие Общности".

Как прийти к не-фашистскому ИИ?

Для хорошего старта на этом пути стоит взять некоторые рекомендации феминистских и деколониальных исследователей технологий, которые ставят под сомнение наши непоколебимые представления об объективности и нейтральности. Теоретическая точка зрения предполагает, что ситуации социальных и политических проблем могут стать точками аналитического превосходства, что только частные и ситуативные перспективы могут дать ключ к объективному восприятию. Аналогичным образом, феминистская этика заботы основное внимание уделяет  отношениям, и попытка установить связь между вопрошающим и объектом исследования поможет преодолеть позицию стороннего зрителя в отношении ИИ. Вопрос в том, как задействовать знание ситуаций и этику заботы в повседневной практике, связанной с ИИ. Полагаю, чтобы направить фокус на  маргинализованные группы и отношения не-фашистский ИИ должен учитывать своего рода народные форумы, советы, чтобы ввести видение из перспективы исключенных и периферийных групп в сердцевину практики ИИ и превратить машинное обучение в форму критической педагогики. Такая формация ИИ позволит ослабить поспешный упор на оптимизацию гиперпараметров, и будет ставить под вопрос истоки происхождения проблематики, то есть те структурные силы, которые формулируют задачи и расставляют приоритеты. Целью народных форумов для не-фашистского ИИ также является борьба с подчинением. Проникновение  алгоритмических систем в повседневности означает их способность формировать наш габитус, то есть укоренившиеся привычки, навыки и склонности. Они становятся, как писал Пьер Бурдье, "структурированными структурами, склонными действовать как структуры структурирующие". Наши отношения с этими системами контроля влияют на осознание себя в качестве подчиненных субъектов, на понимание нашего места в обществе и отношения с другими людьми и институтами. ИИ, которого мы не желаем, подключается через наложение на авторитарную и дуалистическую обусловленность, которая уже имеет место в обществе. Чтобы прийти к самореализации и автономии, которые базируются не на индивидуализме, а на солидарности, необходимо коллективное действие. Не-фашистский ИИ - тот, который поддерживает самоуправление; который поддерживает свободу от колонизации повседневности культурными кодами патриархата, расизма или авторитаризма.

Отсюда следует, что такая практика возможна только на основе коллективной автономии, принципиального отказа от доминирования над собой и кем-либо другим, от участия в деспотичных моделях взаимодействия. Народный форум (совет) - это коллективная структура, основанная на консенсусе, с равными голосами всех участников и основанная на признании всех точек зрения. Принятие решений на основе консенсуса - это итеративный процесс поиска позиций, в который может включиться каждый.

В настоящее время ИИ обслуживает то, что философ Анри Бергсон называл "реди-мейд" проблемами; эти проблемы, основанные на непроверенных допущениях и скрытых институциональных планах, предполагают решения, скроенные из того же концептуального токсичного тезауруса. Обладать агентностью - значит заново формулировать проблемы, придавать реальность чему-то  новому, которое тем самым обретает возможность. В отличие от вероятного, возможное - это нечто непрогнозируемое, а не комбинация наличных фактов. Не-фашистский ИИ принимает сторону возможного против вероятного. Т.е. нужен ИИ, который проблематизирует именно те свойства данных, которые обычно игнорируются как не имеющие предсказательной ценности, поскольку представляют общие условия, а не индивидуальные особенности. Вместо технического натаскивания на устранение рисков, ИИ становится катализатором более фундаментальных изменений и преобразований. Спрашивать "как мы можем предсказать, кто сделает Х?" - значит задавать неверный вопрос. Мы уже знаем о губительных последствиях бедности, расизма и системного исключения, поскольку что это то, что множится вокруг. 

Тщетно воображать, что какое-то число интервенций с опорой на ИИ способно обратить вспять этот сетевой эффект. ИИ нужен не как средство таргетирования, а как нечто, пробуждающее людей. Настоящий ИИ важен не потому, что провозглашает машинный интеллект, а потому, что  сталкивает нас с сохраняющейся несправедливостью нынешней системы. Не-фашистский ИИ - это проект, основанный на солидарности, взаимопомощи и коллективной заботе. Нам нужны не автономные машины, а техника, которая является частью движения за социальную автономию и освобождение.



Комментариев нет:

Отправить комментарий