среда, 23 января 2019 г.

Алгоритмы и эпоха пост-правды




Политика пост-правды это искусство опираться на аффективные предрасположенности, заранее известные реакции, или инсценировать старые верования, выдавая их за новые. Говорят, что алгоритмы используют эти предрасположенности или реакции, регистрируемые как случайные следы, которые мы оставляем при выборе того или иного музыкального трека, той или иной одежды, того или иного сайта с потоковым видео. Иными словами исчисляющая машина пост-правды не руководствуется своей внутренней бинарной логикой или/или, но вместо этого следует за любой логикой, содержащейся в оставляемых нами следах нашего случайного выбора. Хотя политика пост-правды располагает вычислительной машиной, эта машина уже не является цифровой, в том смысле что она теперь не озабочена верификацией и прояснением проблем. Логика этой машины становится мета-цифровой, поскольку отныне её не занимает корреляция между истинами или идеями с одной стороны, и доказательствами или фактами - с другой, но вместо этого ею движет новый уровень автоматизированной коммуникации, запускаемый алгоритмической квантификацией аффектов.


Мета-дигитальная машина политики пост-правды принадлежит автоматизированному режиму коммуникации, готовому бесконечно исследовать обособленные и повторяющиеся действия, которые можно называть поведением. Это паттерны действий или активности, которые дискретны или достаточно консистентны для распознавания машинным разумом. Политическую машинерию пост-правды, применяющую эвристический анализ откликов, интересует регистрация того как поведение развивается, изменяется, адаптируется и переходит к бунту. Это не просто статистический подсчет вероятностей, следующий тому или иному тренду в использовании данных, но здесь имеет место полное безразличие в отношении извлекаемых и передаваемых данных, поскольку они выступают только фоном. И, тем не менее, содержание данных не тривиально. Напротив, вычислительная машина предполагает детализированный анализ данных в интересах алгоритмов, которые затем вскрывают потенциальное содержание, чтобы переориентировать его в целях заранее неизвестных. Другими словами, эта вычислительная индифферентность в отношении бинарного разрешения проблем совпадает с новым императивом: технологический децизионизм,  достоинством которого является способность ускоренного производства решения, а вовсе не решения верного. Для децизионизма то, что является как решительность, становится наиболее верным. Когда Муссолини выступает перед парламентом в 1925, принимая полноту ответственности за жесточайший хаос, произведенный его же режимом, и оспаривая намерение противников отправить его в отставку, он практикует децизионизм принесением в жертву бинарной логики, которая бы настаивала, что если ответственность лежит на Муссолини, то он должен уйти. Но вместо этого диктатор заявляет, что ответственность на нём и он останется. Сегодня эти речи произносят за нас наши машины.

Решить не решать и результаты последуют

История коммуникаций, которые достигают эффекта, отбрасывая правду и скорее фабрикуя факты нежели их обнаруживая, должна включать как минимум три исторических момента в развитии машинного интеллекта и становлении мета-дигитальной машины. Первый период - с 1940 до 1960х, включающий восхождение кибернетической коммуникационной инфраструктуры и внедрение вычислительной логики в процедуры выработки решений; второй - 1970 - 80е годы, ставшие свидетелем сдвига в направлении интерактивных алгоритмов, экспертных систем и систем знаний; и третий период - с конца 1980х к пост-2000, который характеризуется вниманием к интеллектуальным агентам (intelligent agents), алгоритмам машинного обучения и логике "биг-дэйта". Как только эти формы автоматизированного интеллекта проникли в социальную культуру коммуникации, они сразу оказались в центре внимания теоретической критики технологий, которая неустанно предостерегала нас об опасности автоматизации принятия решений, когда информационный процессинг, вычислительная логика и кибернетическая обратная связь подменяют структуру, язык и способность мышления за пределами уже известного.

В эссе "Конец философии и задача мышления" (1969) Мартин Хайдеггер утверждает, что с конца 1940х прогресс кибернетики - коммуникационной техно-науки  и управления – маркирует рубеж, за которым Западная метафизика приходит к своему завершению. Это означает не только то, что философия становится верифицируемой и подтверждаемой тестированием ..., но также то, что научные истины подчиняются оценкам эффективности своих результатов. Заменяя суждение, основанное на категориальной разметке, показателями эффективности утверждений истины, производимых машинами, инструментальная рациональность кибернетики полностью поглощает Западную метафизику. Техно-наука более не подчиняется философии. Теперь идеи не просто выдвигаются или обосновываются, они обрабатываются как информация. Новая техно-наука с новым языком мышления встраивается в информационный контур входа-выхода, в соответствии с которым действия программируются для достижения повторяемых результатов.

Если, согласно Хайдеггеру, концом философии является "встреча с предельными последствиями", то причина этого в том, что развитие наук и их отделение от философии приводит к трансформации философии в "эмпирическую науку о человеке". Нигде это не ощутимо с такой силой как в прогрессе кибернетики и её озабоченности "полаганием человека как действующей социальной сущности. Ведь это есть теория управления с возможностью планирования и упорядочения человеческого труда. Кибернетика преобразует язык в обмен новостями. Искусства превращаются в регулируемый-регулирующий инструмент информирования". Когда философия превращается в науку, которая сообщается с прочими науками, она утрачивает свою метафизическую всеобщность. Ролевая функция объяснения мира и места "человека в мире" окончательно разрушается технологиями.

В этих новых условиях техно-зачистки метафизической истины, утверждает Хайдеггер, новая задача мысли располагается вне разграничения рационального и иррационального. Поскольку мышление всегда остается скрытым внутри иррациональности систем, в реальности нельзя удостоверить его существование. В этой перспективе, отталкиваясь от Аристотеля, он ставит вопрос о том, как возможно распознать в какой именно момент мышление нуждается в обосновании, и как будет переживаться то, что в обосновании не нуждается. Однако, для Хайдеггера только не-потаенность - условие при котором мышление не может быть несокрытым - будет совпадать с ситуацией истины. Здесь истина не подразумевает определенности абсолютного знания и поэтому не будет принадлежать сфере научной эпистемологии. С этой точки зрения, поскольку кибернетический режим техно-научного знания большей частью озабочен достижением результата, он ничего не может нам сказать об истине, так как истина предполагает несокрытость того, что невозможно продемонстрировать - ведь мышление всегда скрывается в иррациональности систем. Т.о. истина должна оставаться за пределами того, что уже познано. Вот почему, согласно Хайдеггеру, в эпоху бессмысленной коммуникации необходимо превратить задачу мышления в способ обучения тому, как следует мыслить.

Таково новое представление о мышлении в эпоху автоматизированного познания, мышлении, настигаемом сегодня политикой пост-правды. Мы оказались в тупике: уже неспособны вернуться  к дедуктивной модели идеальных истин, но при этом равно неспособны полагаться на индуктивный метод или простой факт-чекинг для верификации правды. Как же выйти из тупика? Это трудно - переключить перспективу на то, чем может быть техно-политика без того, чтобы опережающим стремлением распутать этот принципиальный узел - связку философии и техно-науки - за которым неизменно следует хайдеггеровское суждение, что превращение метафизики - как не-демонстрируемого состояния мышления - в кибернетические контуры коммуникации требует артикуляции мышления за пределами разума с его инструментальностью.

По сути, наследие этой критики мышления и сегодня еще уклоняется от вопроса об инструментальном разуме, задействуя который машины искусственного интеллекта или боты перекодировали критические взгляды на идеологию правды и факт-чекинг эмпирических данных. Вместо провозглашения конца метафизического мышления и его завершения в инструментальности,  представляется важным вновь обратиться к критике инструментального мышления, заходя с тыла - возобновляя вопрошание о том, как следует мыслить с точки зрения тех средств, посредством которых ошибка, неопределенность, случайность и неизвестность вообще, становятся частью техно-научного знания и мышления машин.

Учиться мыслить

Для этого стоит присмотреться к историческим сдвигам в кибернетике и вычислениях с конца 1940х до 1980х, чтобы обнаружить модели автоматизированного интеллекта, которые не базируются на дедуктивной логике известных истин. Поскольку прикладная практика индуктивного дэйта-извлечения и эвристического тестирования  сместила фокус исследований искусственного интеллекта с режима подтверждения, валидации на режим обнаружения, то должны быть пересмотрены допущения критической теории, что техно-наука практически исчерпала метафизику как бы "уже осмыслив" (в процессе простой коммуникации). В этом как раз и состоит онтический принцип ограничения техно-науки, которая отстраняет кибернетику и компьютерные исчисления от символических разумных систем и направляет её к экспериментам с "ноу-хау" - т.е. обучением учёбе - и это сегодня главная схема кураторского образа социальной коммуникации "bot-to-bot" в эпоху пост-правды и пост-факта. С кибернетикой и вычислениями рациональная система Западной метафизики не просто состоялась или актуализировалась, но практически полностью видоизменилась. Теперь вечная истина подверглась превратностям материальной контингентности. Кибернетическая инструментальность с помощью знания заменяет истину как знание средствами познания и заявляет о метафизической размерности машины знания,  произрастающей из её же автоматизированных функций обучения и прогнозирования.

И всё же в этой гладко скроенной рациональной системе  уже нельзя понимать мышление как то что "вне" или как то, что остается несокрытым в невидимых зияниях транспарентной машины коммуникации. Напротив, представляется крайне важным рассмотреть обработку неисчислимого (продумывание неопределенностей) в машинном мышлении, как современную ситуацию, в которой инструментальная поддержка также даёт знать, что её средства оказываются перед пределом своих способностей. Эта трансцендентальная инструментальность ставит вопрос об отношении между действием и мышлением, который оказывается принципиальным в критике технологий. Поэтому, если современная пролиферация политики пост-правды и пост-факта походит на последствия конца Западной метафизики, начатого кибернетикой и компьютеризацией, то последствия  машинной метафизики еще предстоит понять из перспективы происхождения не-человеческого мышления. Но что значит сказать, что машины способны думать? Разве вся критика технологий начиная с Хайдеггера и до Делеза и даже Ларуэля не утверждала что имманентность мысли проходит сквозь не-рефлективные и не-полномочные машины? И если так, является ли политика пост-правды и пост-факта действительно наиболее очевидным следствием того, как иррациональное мышление пропитывает наиболее рациональное в системах? И все-таки возможно подойти к вопросу о не-человеческом мышлении иначе - исходя из логики машин и из перспективы происхождения машинной эпистемологии с вовлечением сложных уровней опосредования, а не непосредственной логики действия-мысли, вот что ставится на карту.

Уже в 1940х вызвавшая резонанс работа по нейронным сетям (Walter Pitts и Warren McCulloch) предполагала замену дедуктивной модели математического мышления, основанной на символических истинах, эвристическими методами проб и ошибок которые бы позволили машинам обучаться на абстрактном уровне, а не просто через посредство сенсо-моторного отклика обратной связи. Как указывает историк кибернетики Ronald Kline, эти математические нейронные сети уже берут в фокус степени хаотичности в сети, а не полагаются на гомеостатическую функцию обратной связи. Однако нейронная модель познания (Pitts и McCulloch) в основном совпадала с коннективистским взглядом на интеллект, связывая искусственные нейроны с математической записью, привязывая биологическую прошивку нейронов к эманации концептов. Эта модель использовала познающее поведение алгоритмов как репрезентирующий инструмент для базового прояснения когнитивных функций. Однако, поскольку отдельный нейрон был способен вычислять лишь малое число логических предикатов и, т.о., его было недостаточно для объяснения сложности параллельного мышления, эта модель оказалась в тупике на фоне исследований ИИ после 1980х.

Только на рубеже конца 1980х - 90х, после т.н. "зимы Искусственного Интеллекта", эти новые усилия по автоматизации мышления задействовали суб-символические воззрения на интеллект и привели к широкому применению не-дедуктивных и эвристических методов проверки результатов, что позволило проводить обучение алгоритмов исходя из неопределенной или неполной информации. Посредством индуктивных методов извлечения и переноса данных алгоритмы станут обучаться - или натаскиваться по ходу времени - стартуя с относительно небольшого уровня обеспечения данными. Вместо простого подтверждения результатов на соответствие заданным аксиомам, алгоритмы обретают перформативность в отношении данных; т.е. через рекурсивные и вероятностные расчеты алгоритмы станут не только отыскивать информацию, но также получать и комбинировать шаблоны (паттерны).

К концу 90х подчиняющееся правилам поведение алгоритмов становится эволюционирующим: они адаптируются и мутируют с течением времени по мере извлечения и передачи данных. Эксперименты с генетическими и эволюционными алгоритмами в конечном счете трансформировали машинное обучение как средство валидации выводов, создания нейронных сетей с невидимыми уровнями, связанными с памятью компьютера, который параллельно обеспечивает работу еще других наборов команд. В целом нейронные сети с более значительной уровневой "глубиной" способны исполнять больше последовательных команд. К примеру, режим машинного обучения, названный "обратной передачей ошибок обучения" (back-propagation) натаскивает сети, имеющие скрытые уровни, так, чтобы могли формироваться более простые вычислительные модули. Мы знаем, что алгоритмы обратной передачи ошибок являются инструментом извлечения данных, используемым для классификации, группирования и прогноза. Например, при использовании для распознавания образов этот режим машинного обучения может включать натаскивание первого слоя алгоритма для обучения видению линий и углов. Второй слой будет учиться видеть комбинацию этих линий для составления таких деталей, как глаза и нос. Далее, третий слой может комбинировать линии и учиться распознавать лицо. С применением алгоритмов обратной передачи будут, тем не менее, отображаться только заранее отобранные черты. Как следствие, общий фон для тех данных, которые еще будут извлекаться, уже известен, и, к примеру, гендерные и расовые  предрассудки либо уже закодированы в массивах данных, либо они "слепы", т.е. невидимы алгоритмам. Здесь, не предполагая объективной репрезентации данных, машинное обучение скорее выглядит как усилитель существующих предрассудков, как это показало соединение речи и образов в автоматизированной классификации и прогнозировании.

Вместо программирования функций "сверху-вниз" адаптивные алгоритмы в нейронных сетях обрабатывают данные с нарастающей скоростью, поскольку они извлекают и передают данные без выполнения дедуктивных логических выводов. Однако, согласно Katherine Hayles, алгоритмический интеллект, совершенно лишенный мысли, должен скорее пониматься как бессознательная форма познания, разрешающая сложные проблемы без применения формальных языков или дедуктивных умозаключений. Задействуя низкие уровни нейронной организации, итеративные и рекурсивные паттерны сохранения, эти алгоритмы являются индуктивными учениками; т.е. они развивают сложное поведение посредством извлечения информации из  конкретных совокупностей данных. Тем не менее, указывает Katherine Hayles, возникновение, сложность, адаптация и феноменальный опыт познания не просто совпадают с материальными процессами или функциями этих элементов познания. Даже если алгоритмы формируют бессознательный интеллект, это не означает что они действуют неосмысленно. Их сетевое и эволюционное обучение просто не может пониматься на основании их материальной функциональности, или, выражаясь иначе, в соответствии с их исполнительными функциями.

В отличие от взгляда Lorraine Daston, что алгоритмические процедуры являются "глупыми" наборами инструкций, которые заменили логос нормализацией, аргументы Katherine Hayles о бессознательном познании предполагают, что алгоритмические процедуры преобразуются при взаимодействии между данными и алгоритмами, данными и мета-данными, а также алгоритмами и другими алгоритмами, которые определяют машинное обучение как развернутую во времени среду, в которой векторы информации постоянно сходятся и расходятся. Т.е. машинное обучение является уже манифестацией действий бессознательного познания низкого-уровня, происходящего на неразличимых или аффективных скоростях, и нет возможности говорить, что познание является темпорально когерентным, соединяющим прошлое с настоящим или причины с эффектами. Согласно Katherine Hayles, информация не может просто редактироваться, чтобы удовлетворить ожидания. Напротив, бес-сознательное познание разумных машин обнаруживает темпоральные упущения, не характерные для осознанного человеческого познания. Это эмерджентистский, синергетичный образ бессознательного познания, который бросает вызов центральному положению человеческой мудрости со стороны ко-эволюционирующей когнитивной инфраструктуры, где алгоритмы не адаптируются пассивно к извлеченным данным, но напротив - устанавливают новые паттерны означивания посредством группирования, сопоставления и отбора данных. С этой точки зрения, если индуктивная модель проб и ошибок позволяет вычислительным машинам осуществлять более быстрые соединения, это также подразумевает что алгоритмы учатся распознавать паттерны, и т.о. повторять их, но без необходимости проходить сквозь всю цепочку причин и эффектов и без потребности понимать их содержание.

Однако, по мере того как алгоритмы стали натаскиваться на всё больших наборах данных, их способность к поиску теперь не ограничивается уже известными правдоподобиями. Напротив, алгоритмы становятся всё более эффективными в отношении данных, экспериментируя со способами интерпретации, которые Katherine Hayles называет "техно-генезом", указывая на инструментальную трансформацию того "как мы можем думать".

За последние 10 лет такая инструментальная трансформация затронула то, как алгоритмы могут думать в своём кругу. После 2006, с появлением алгоритмов глубокого обучения для инфраструктурной эволюции искусственных нейронных сетей, центральным становится новый акцент на то, как следует вести обработку неизвестных данных. Вместо того, чтобы измерять скорость данных и присваивать значение  тому как часто данные передаются, алгоритмы глубокого обучения скорее отыскивают особенности песни, изображения или голоса чтобы предсказать содержание, смысл, и контекстно-специфическое поведение данных. Здесь обучение алгоритмов строится не только на данных, но и на взаимодействии с другими алгоритмами, выстраивая своего рода мета-обучение на скрытых слоях сети, сокращая дистанции между узловыми точками в процессе гранулярного анализа содержания данных. В этой перспективе алгоритмы машинного обучения не просто реализуют бессознательные паттерны распознавания данных, вскрывая бреши в тотализирующих рациональных системах, но, похоже, скорее стремятся создавать новые цепочки обоснований, отталкиваясь от незначительных изменений содержания данных  для установления определяемого машиной смысла их использования.

Этот акцент на контентно-специфических данных  радикально отличается от концепции информации в коммуникационных системах в 1940х и послевоенный период. Например, для Клода Шеннона содержание данных сводилось к их перечисляющей функции и информация была лишена контекста, смысла или особенностей. Сегодня имеем глубокое обучение, биг дэйта, дэйта майнинг (глубинный анализ данных), и алгоритмы теперь измеряют малейшие изменения в контент- и контекст-специфичности данных, по мере того как они подвергаются оцифровке (от спутников до  камер видеонаблюдения, от мобильных телефонов до использования  приложений и средств просмотра в сети). Действительно, что делает машинное обучение новой формой обоснования, это не только более быстрое и объемное группирование данных, но также новая модальность квантификации, или что-то вроде качественной квантификации, основанной на меняющихся вариациях данных. Это уже есть трансцендентальное качество вычислительного инструментария, обнаруживающее разрыв между тем, что машины делают и тем, что они думают.

Другими словами, алгоритмы глубокого обучения не просто учатся через применение, но учатся учиться в отношении контент- и контекст-специфичных данных (извлекая специфику использования контента сквозным образом через класс, гендер, расу, географическое положение, эмоциональные отклики, социальную активность, сексуальные предпочтения, музыкальные веяния и т.д.). Уже на уровне машин происходит демаркация стремления не просто представлять тот или этот контент или отличать этот результат от другого. Наоборот, машинное обучение порождает свою собственную форму понимания: а именно - мышление с включением неопределенности. Можно утверждать, что следствие такого обучения предполагает нечто большее, чем неопосредованное выражение имманентной мысли или сдерживание взрыва иррационального внутри рациональных систем.  Машинное обучение имеет тенеденцию вовлекать расширяемые уровни опосредования, где неопределенность манифестируется на языке многочисленных форм алгоритмического автоматизма, как то, что не просто нарушает вычисления, квантификацию, числовое упорядочение бесконечностей.

Наоборот, неисчислимости запускают сложное выстраивание медиаций, вовлекая структурирование хаотичности в интересах алгоритмического схватывания неопределенностей. Это означает, что машинное обучение не должно рассматриваться исключительно в понимании того, что алгоритмы делают в качестве модели, устремленной лишь на воспроизводство системы работы с данными - их использование, контекстуализацию, означивание. Однако тут же следует воспротивиться соблазну видеть в алгоритмах послушных исполнителей, допускающих манифестацию бессознательных или иррациональных потенций мышления. Вместо этого, хочу предположить, что сам главный принцип машинного обучения должен быть критически рассмотрен в понятиях рождающейся трансцендентальной инструментальности: то, что машины делают, не-делают и должны делать не совпадает с возможностями машинного мышления. Это подразумевает не только то, что мышление трансцендирует простую прагматику, но также, и это более важно, что прагматические доводы устремляют к построению мышления при допущении, что будущие способы действий могут трансформировать режимы самих умений (knowing how). Здесь иррациональное не выпадает из цепочек рассуждений, но выявляет возможности инакового, то что общей практикой обсуждений видится в перспективе опосредования техно-социальных изменений и действий.

Если такой критический взгляд на машинное обучение указывает на перспективную возможность критической теории автоматизированного мышления, то не следует упускать из вида тот факт, что алгоритмическое управление и контроль задействуют микро-таргетирование населения через конструирование альтер-фактов, направленных на укрепление наличных убеждений. Одновременно, эволюционная динамика обучающихся машин показывает, что время вычислений,  включая скрытые слои прирастающей сети, также подталкивает алгоритмы к структурированию хаотичности за пределами уже известного.
...
В этой ситуации, если мы продолжаем думать что алгоритмы глупы и бес-сознательны, то одновременно станем утверждать, что компьютерное управление  ведет лишь к воспроизводству идеологической и дискурсивной структуры власти, которую, как говорится, совокупность данных подпирает. Другими словами, если полагается, что машинная архитектура алгоритмов и данных есть просто иная форма идеологического дизайна (пропитанного человеческими решениями) или что машины в конечном итоге не имеют разума и способны т.о. действовать эмпирически (просто как контролеры данных), то здесь упускается из виду спекулятивная критика машинного обучения, понимающая машину как что-то большее, чем просто частный пример инструментальных выводов-обоснований - резервуар знания, способны идеально воспроизводить Западные метафизические бинарности, дедуктивные истины и индуктивные проверки фактов, но на высоких скоростях. Такой взгляд обнаруживает, что сердцевина власти и знания теперь предицируется наличными убеждениями и гранулярной агрегацией данных, но он не предполагает критического отношения к технологиям, способным отбросить пророчество Хайдеггера, что техно-наука изменила задачу мышления, заменяя истину эффективностью регламентированного поведения.

Критическая теория автоматики должна вместо этого начать с усилий по опрокидыванию аутопойэтической диады инструментального умозаключения, где машины либо производят а-приорное обоснование, либо сводят власть разума (закона и истины) к грубой силе и реактивным откликам. Другими словами, эта критика должна отвергнуть взгляд, что техно-наука приводит к концу мечтания Западной философии о разуме, а взять в фокус переворот техно-научного знания и философского разума, запущенный в ходе исследований пределов искусственного интеллекта. Теперь микро-таргетирование населения включает не только воспроизводство предубеждений в процессе агрегирования данных, но алгоритмическое формирование любых возможных данных и приобретает расовую, гендерную окраску и при определенных условиях должно рассматриваться как потенциальная угроза.

Но как следует подходить к этим корреляциям между концом истины и факта и трансформацией кибернетических бинарных состояний в формы бес-сознательного познания и процессинг мета-цифрового обучения, где алгоритмы не просто производят дэйта-контент, но учатся тому, как следует учиться и, следовательно, как включать неопределнности в построение умозаключений? Разве достаточно просто осудить бездумную техно-научную квантификацию предвзятых убеждений и желаний, возможно ли приступить к материалистической теоретизации техничности, начиная с уклонения от работы со средствами, которыми мышление мыслит?

Эти вопросы требуют от нас акцента не на том, как интеллектуальные машины репрезентируют знание в ходе агрегации данных/фактов; следует также приступить к материалистическому вопрошанию о техническом закреплении мышления в искусственных нейронных сетях. Можно утверждать, что после Второй Мировой алгоритмические средства мышления тоже следует рассматривать как модальность рассуждений. Верно будет сказать, что большинство алгоритмов машинного обучения, как алгоритмы Нетфликс, в действительности фокусируются на специфическом использовании данных в ходе эвристического анализа корреляций данных, сопоставлении совпадений, и т.о. предсказывая вашу принадлежность к категориям данных о предпочтениях согласно тому, что уже можно узнать. Однако, алгоритмы глубинного обучения - как средство мышления о том, как мыслить - задействуют не только прогностический анализ контента и микротаргетирование использования данных, но также определяют стремление искусственного интеллекта абстрагировать модальности обучения в отношении бесконечного разнообразия контекстуального контента. Эта неограниченная множественность не только извлекается из алгоритмической регистрации человеческого использования данных в соответствии с частотностью, контекстами и содержимым, но также включает в себя мета-формирование того, как алгоритмы этому всему обучаются.

Например, в отличие от "советующих" алгоритмов, интерпретирующие алгоритмы RankBrain, поддерживающие ранжирование в Гугл (Google Ranking), не ограничиваются советами. Скорее, они активируют мета-реляционный уровень вывода - т.е. алгоритм ищет объяснения для неизвестных признаков, чтобы извлекать информацию - посредством гипотетических предположений о данных, задействуя алгоритмический поиск неопределенных слов, событий или вещей, для которых может отсутствовать точная поисковая терминология. В отличие от эвристического анализа корреляции данных среди внятных множеств, эти интерпретирующие алгоритмы не просто проверяют, верифицируют или обосновывают гипотезы, но, прежде всего, должны разработать гипотетическое рассуждение на основе того, что другие алгоритмы уже обнаружили, чтобы определить возможный смысл информации, отсутствующей в запросе. Эти алгоритмы глубокого обучения действуют посредством отыскания элементов удивления - т.е., неосмысленной информации - которые могут иметь место если система склонна к сбережению ошибок , а не их исключению, микро-уровней хаотичности, появляющихся в массивах данных. Другими словами, эта мета-цифровая форма автоматизированного познания настраивается не на исправление ошибок или исключение хаотичности; наоборот, она безразлична к энтропийному шуму нарастающих объемов данных, поскольку этот шум как раз оказывается частью учебного процесса, и по этой причине экспериментальное производство гипотез должно сохранять неопределенность, оставляя возможность привязать информацию к удивлению. Хотя можно допустить, что такое включение неопределенности - или иррациональности, или бес-сознательной активности - в структуру вычислительных процессов, есть лишь еще одна манифестация окончательного техно-господства реальности, будет важным вместо этого напомнить о ключевой роли хаотичности в алгоритмическом опосредовании, и по сути этим ставится вопрос об эпистемологическом господстве контингентности в рамках функционирования любой рациональной системы. Результатом этого является не неизбежный отказ системы - т.е. усугубление проблемности или нарушение порядка - а, напротив, её гипер-рациональная (или сюр-рациональная, если вспомнить Башляра) артикуляция реальности, артикуляция неведомого, неисчислимого на языке технического опосредования, автоматизированных актуализаций и машинного становления реальности в её откровенно искусственных формах.
...
Мы знаем что алгоритмы RankBrain также именуются сигналами, поскольку они дают ранжирующим страницы алгоритмам ключ в отношении контента: они отыскивают слова на странице, связывая их со страницами, локациями пользователей, их историями поисков, или проверяют регистрацию доменов, дублирование контента и т.п. Эти сигналы разработаны для поддержания центрального алгоритма Ранжирования Страниц (Page Ranking ), чтобы он мог индексировать новый информационный контент. Индексируя информацию, RankBrain нацелен на интерпретацию поисковых запросов пользователя, обрабатывая содержание слов, фраз и предложений посредством применения списков синонимом или корневых перечней. Здесь канализирование алгоритмических поисков в направлении уже запланированных результатов накладывается на алгоритмические гипотезы, открытые для неопределенности результата и случайности объема информации, содержащейся на скрытых уровнях нейронных сетей.
...
Неопределенность стала частью мета-цифрового синтеза рациональности и логоса. Она является активным элементом искусственной формы "ноу-хау", где сберегаемые неизвестности втягивается в гипотетическое формирование смысла: мета-цифровое безразличие к истине и факту скорее склонно задействовать возможности переадресования инструментального знания в перспективу генерации гипотез, включая в активную работу средства мышления. В эпоху политики пост-правды неопределенность, встроенная в машину обучения, характеризует не внешнюю контингентность, возмущающую стабильное (в иных обстоятельствах) верховенство информации. Напротив, корреляция "новой брутальности" фэйка и альтернативных новостей с современной формой автоматизации задействует гранулярное структурирование неизвестности, подталкивая автоматизированное познание к выходу за пределы систем, основанных на знании. Поэтому неопределенность присуща алгоритмической генерации гипотез, и по сути техно-научная артикуляция истин и фактов больше не может ограничиваться повторяющимися функциями и исполнением уже известного. Т.о. корреляция между политикой пост-правды и автоматизированным познанием требует углубленного изучения, оспаривания, пере-форматирования.

Как напоминают нам Делез и Гваттари (Д&Г), если мы просто реагируем на господствующие детерминации нашей эпохи, мы обрекаем мышление на доксу. В частности, если доминантные политические нормы лжи и оскорблений поддерживаются свирепствующей нео-эвристической верой в алгоритмический поиск, не вытолкнет ли лишенная чувств критика философию за пределы информационных технологий?

Д&Г уже доказали, что философия должна восстать против этого нового типа догматического образа мысли, сформированного кибернетической коммуникацией, которая постоянно смешивает прошлое и будущее, память и надежду в непрерывном вращении настоящего. Однако, чтобы мыслить вне господства настоящего, не требуется возвращения к вечной истине - к метафизике истинных идей - которая должна быть восстановлена против лжи. Если кибернетика совпадает с информационной сетью коммуникационного обмена, смыкающей пролиферацию мнений и порождая консенсус, то философия, напротив, должна совершать усилие по созданию критических концептов, которые удаляют присутствие настоящего в будущем образе мышления. Но как это делается?

Критика коммуникационного общества у Д&Г - это критика компьютерной науки, маркетинга, дизайна и рекламы. Коммуникация здесь понимается как расширение доксы, модель познавания истины, которая бесконечно воспроизводит то что всем известно, то что говорят опросы, то во что верит большинство. Для Д&Г коммуникация обедняет философию и порочит себя в микро-движениях мысли, обращая время в хронологическую последовательность возможностей, линеарно выстраивая время, полагаясь на то, что уже было выдумано, понято или прожито. В противоположность этому Д&Г утверждают, что несвоевременное должно воздействовать на  настоящее, что создать пространство для прихода иного времени:  мысль о будущем.

В интервью "О новых философах и более общей проблеме" Делез конкретно сетует о капитуляции философской мысли перед медиа. Здесь письмо и мышление трансформируются в коммерческое событие, выставление напоказ, рекламную акцию. Делез настаивает, что философия должна вместо этого озаботиться формированием проблем и творением концептов. Эта несвоевременность мысли и не-философия философии, которая позволит создать действительно критический концепт.  Но как нам отменить неминуемое само-истирание критических концептов, которые внеположены техно-научному режиму коммуникации? Может ли действительно критический концепт выжить в новой безучастной жестокости нашего мира пост-правды и пост-факта, направляемого автоматизированным мышлением? Не воспрепятствует ли это недоверие техно-науки становлению философии в качестве концептуального активатора грядущего мира? Почему  философия продолжает игнорировать мыслящие машины, которые производят чужеродные концепты, и действует так, будто машины – где-то за пределами её способностей?

Хотя это совершенно различные миры, можно проследить у Хайдеггера и Делеза линию, которая выстраивается в защиту философии от техно-науки, против нищеты мысли в эпоху автоматизированного мышления. Если хайдеггерианское не-сокрытие истины в пределе вступает в недостижимое состояние, размеченное  осознанием конечности (Западной метафизики, Человека), то взгляд Делеза на немыслимое в философии скорее устремляется к творческому развертыванию потенциальностей, построению концептуальных масок, которые сопротивляются и контр-осуществляют доксу настоящего.

И все же здесь преобладает сильное недоверие техно-науке. В частности, формы инструментального разума, встроенного в кибернетические и вычислительные коммуникации, продолжают идентифицироваться здесь с контролем как властью. Подобным образом концепция метода или инструмента власти - т.е. информационных технологий - остаётся бесцельной (сама по себе она есть набор бес-смысленых, бес-сознательных автоматов), если не подвергается политической оркестровке. И пока отсутствует возможность отвязать политическое условие истины и факта от компьютерного способа  извлечения и передачи данных, представляется само-ограничением не принимать в расчет способ мышления, порожденный инструментами или устройствами мышления.

Если с кибернетикой и компьютерами инструментом исчисления становится обучающаяся машина, которая изнутри бросает вызов техно-науке - логике дедуктивной истины и индуктивных фактов - то одной из причин этого является форма инструментальности, имеющая собственное мышление, благодаря которому эвристическое тестирование смещается в сторону генерирования гипотез, т.е. способу мышления, выходящему за рамки собственного способа действия.  Т.о. можно утверждать, что через обучение обучению тому ΄как следует мыслить΄, эта инструментальная форма разума трансцендирует онтическое состояние, в которое она была вписана проектом философии модерна.

Поскольку инструменты уже занимаются производством политики, следует задать вопрос о том, как переориентировать брутальность инструмента, уйти от безучастного перемешивания убеждений и желаний в направлении динамического мышления, допускающего ре-артикуляцию целей, а не их элиминацию. Одна из возможностей обратиться к политике машин - это действовать посредством философии иного рода, которая начинается не только с немыслимого в мышлении, но также с ин-гуманистичного характера инструментальности, осознания инаковости внутри самого мышления. Это может стать отправной точкой для представления о техно-философии, перепрограммирования мышления посредством машин и вместе с машинами. Если антагонизм между автоматикой и философией заявляется на уровне инструментальной функции мышления, техно-философия, напротив, должна вести не к оппозиции, а к параллельной артикуляции философии машин, соучаствующих в пере-открытии миров, истин и фактов, которые существуют и могут меняться.

Ведь новую брутальность техно-политики возможно перенацелить посредством техно-философии, и такие попытки переизобретения социальности инструментального мышления можно обнаружить в истории, культуре и эстетике - именно так совершался переворот в метафизике присутствия. К примеру, архитектура Нового Брутализма 50х-70х подтолкнула программу техно-социализации процесса жизни, нацеленной на уход от сентиментального восприятия завершения "духовного в Человеке" и превосхождение норм архитектурного высказывания посредством несдерживаемого функционализма, предъявляя грубую вещественность структуры и материала. Не только функционализм, но также и прежде всего а-формализм и топология были частью процедурной деятельности, пытавшейся преодолеть осознание конца через новую образную интерпретацию пространственного опыта истины и фактов. Здесь все медиа действуют параллельно или на равных основаниях чтобы связать свой особый контент в а-формальном измерении - которое может проявляться посредством незавершенности тотального образа социальности. И сопряжение материального мира одушевленных или неодушевленных медиа сберегает обманчивую сложность этих дискретных частей, которые могут затем изменять медиа-формы истины и факта во множестве направлений.

Архитектура Нового Брутализма обращает инструменты мышления в бетонные, массивно-модульные, взаимосвязанные блоки и автономизированные обособленные клетки, вознесенные над локальной территорией, объединенные "улицами неба" или сетями "коридоров", пронизывающих отдельные части строений. Здесь инструментальное продумывание преобразует энтропийный распад послевоенного периода, удерживая железобетонную увесистость прошлого с тем, чтобы растворить её в структуральных экспериментах проблемно-ориентированной функциональности и эстетической транспарентности. Если Новый Брутализм обладал видением, которое превращало информацию в оружие, то речь шла не просто о продвижении информационных технологий, а скорее о предложении способов инструментального мышления, действующего сквозь энтропию, хаотичность или шум, чтобы перепрограммировать коды и ценности, проходы и перемычки, содержимое и представления целостного образа социального.

Комментариев нет:

Отправить комментарий