Профсоюз DeepMind даёт отпор
Сотрудники Google DeepMind установили черту, проведя ошеломляющее голосование за создание профсоюза. Речь идёт не о повышении зарплаты или дополнительных днях отпуска; это прямой вызов этическим аспектам разработки ИИ, в частности, в отношении военных контрактов с Израилем и США.
Цифры говорят сами за себя. Подавляющие 98% членов Союза работников связи (CWU) в DeepMind поддержали инициативу по созданию профсоюза. Их послание руководству Google предельно ясно: они не хотят, чтобы их творения были соучастниками того, что они называют «геноцидом».
«Мы не хотим, чтобы наши ИИ-модели были соучастниками нарушений международного права, но они уже помогают в геноциде палестинцев со стороны Израиля», — заявил неназванный сотрудник DeepMind в заявлении, опубликованном CWU. «Даже если наша работа используется только для административных целей, как нас неоднократно уверяло руководство, она всё равно помогает сделать геноцид дешевле, быстрее и эффективнее. Это должно немедленно прекратиться, как и вред иранцам и человеческим жизням где бы то ни было».
Этот шаг, если он будет добровольно признан руководством в течение 10 рабочих дней, охватит почти 1000 сотрудников лондонской штаб-квартиры. Требования профсоюза конкретны: категорическое обязательство не разрабатывать оружие или технологии наблюдения, причиняющие вред людям; переговоры о влиянии ИИ на роли и гарантии занятости; и, что критически важно, право работников отказываться от проектов, противоречащих их личным моральным или этическим принципам. Также циркулируют слухи о «исследовательских забастовках», когда сотрудники будут воздерживаться от улучшения основных сервисов Google AI, таких как Gemini, что подчеркивает глубину их решимости.
Это не единичный случай. Он следует за широким протестом сотрудников Google против засекреченных контрактов на разработку ИИ с Пентагоном. Всего на прошлой неделе сотни подписали открытое письмо генеральному директору Сундару Пичаи. И, что вызывает тревогу, Google, наряду с конкурентами вроде OpenAI и Nvidia, по сообщениям, заключила сделки, позволяющие Министерству обороны США широко использовать их модели ИИ. Это произошло после увольнения Google более 50 сотрудников, протестовавших против её военных связей с Израилем.
Почему сейчас? Коррекция рынка этики ИИ
Рынок годами был наполнен утопическими обещаниями ИИ. Нам говорили, что он решит проблему изменения климата, излечит болезни и сделает нашу жизнь бесконечно проще. Но это первый значимый признак растущей реакции со стороны тех, кто непосредственно создаёт эти инструменты. В каком-то смысле это коррекция рынка, когда анализ затрат и выгод для сотрудников резко меняется. Слишком долго преобладающий нарратив в Big Tech, особенно вокруг ИИ, заключался в том, что этические соображения являются второстепенной проблемой — проблемой, которую нужно решать после того, как технология будет построена и развёрнута.
Джон Чадфилд, национальный офицер CWU, характеризует это как решающий момент солидарности. Он подчеркивает, как технологические работники налаживают связь с маргинализированными сообществами по всему миру, основывая свою профсоюзную деятельность на ключевых ценностях солидарности и профсоюзного движения. Что это означает? Когда работники коллективно решают, что их навыки не должны использоваться для разрушения, экономический эффект может быть колоссальным. Это касается не только Google; это индикатор для всей индустрии ИИ. Будут ли компании ставить акционерную стоимость и государственные контракты выше этических сомнений своего персонала? Рынок наблюдает.
Будет ли ИИ использоваться для ведения войны?
Очевидно, что разработка искусственного интеллекта тесно связана с интересами обороны и безопасности во всем мире. Те же возможности, которые делают ИИ столь привлекательным для гражданских применений — распознавание образов, сложный анализ данных, предиктивное моделирование — также весьма востребованы в военных целях. Это включает в себя всё: от усиленного наблюдения и разведки до автономных систем вооружений и сложной логистики. Текущий геополитический климат в сочетании с быстрыми достижениями в области ИИ, естественно, ускорили эту тенденцию.
Профсоюзное движение в DeepMind — это прямой ответ на эту реальность. Сотрудники задаются вопросом, будут ли их вклад в мощные модели ИИ в конечном итоге служить гуманитарным целям или, наоборот, способствовать более эффективному и потенциально разрушительному конфликту. Вопрос не в том, будет ли ИИ использоваться для войны, а в том, как будет регулироваться его разработка и развёртывание. Эта попытка создания профсоюза — это попытка работников получить некоторый контроль над этим управлением, утверждая, что прибыль и прогресс не должны достигаться за счёт человеческих жизней или международного права.
Будущее разработки этичного ИИ
Нарратив вокруг ИИ в значительной степени определялся технологическими гигантами и венчурным капиталом, фокусируясь на инновациях и захвате рынка. Но этот профсоюзный натиск — мощное напоминание о том, что человеческий фактор — создатели, инженеры, исследователи — обладает свободой воли и этическими императивами. Если такие компании, как Google DeepMind, продолжат pursuing прибыльные военные контракты, они рискуют оттолкнуть свой самый ценный талант и столкнуться со значительным репутационным ущербом. Это может привести к утечке талантов в компании с более сильными этическими рамками, фактически создавая разделенный рынок для ИИ-специалистов.
Более того, это может катализировать более широкое движение в рамках Big Tech. Не исключено, что аналогичные профсоюзные усилия или формализованные этические экспертные советы могут появиться и в других ведущих лабораториях ИИ. Давление на компании, требующее от них демонстрации подлинной приверженности ответственному ИИ, будет только усиливаться. Это не просто вопрос избежания споров; это создание устойчивого, заслуживающего доверия ИИ, который приносит пользу всему обществу, а не только тем, кто может позволить себе его вооружить.
🧬 Связанные материалы
- Читать далее:
- Читать далее: Prediction Cone JS Library Drops: Uncertainty Viz, Framework-Free and Ready to Embed
Часто задаваемые вопросы
Чего требуют сотрудники Google DeepMind? Сотрудники Google DeepMind требуют обязательства не разрабатывать оружие или технологии наблюдения, причиняющие вред людям. Они также добиваются переговоров о влиянии ИИ на их работу и права отказываться от проектов, вызывающих этические возражения.
Почему работники DeepMind протестуют против военных контрактов? Сотрудники ссылаются на опасения, что их технологии ИИ используются для содействия «геноциду» и нарушениям международного права, особенно в связи с действиями Израиля. Они считают, что даже административное использование ИИ косвенно поддерживает эти вредные последствия.
Повлияет ли создание этого профсоюза на разработку ИИ в Google? Это может существенно повлиять на разработку ИИ в Google, внедрив надзор со стороны работников и этические ограничения на контракты, особенно связанные с военными приложениями. Это может привести к большей прозрачности и вовлеченности работников в принятие решений относительно этики проектов.