Премьер-министр Великобритании Риши Сунак объявил о смелом плане превращения страны в мировой эпицентр индустрии искусственного интеллекта (ИИ). В рамках этого плана правительство Великобритании планирует учредить крупные стипендии в области ИИ и инвестировать более 100 миллионов долларов в Целевую группу по ИИ.
В основе этого видения лежит сочетание исследований, образования и международного сотрудничества, что является потенциально знаковым моментом для технологического ландшафта Великобритании.
Сунак сказал, что он понимает опасения, которые многие испытывают по поводу технологии ИИ. В конце концов, не каждый день группа признанных ученых заявляет, что наступит конец света. Чтобы решить эту проблему, Сунак подчеркнул свою приверженность новаторским исследованиям в области безопасности в пределах Великобритании, уравновешивая свое волнение по поводу будущего с признанием рисков, которые оно может принести.
«Я понимаю, что люди обеспокоены ИИ. Именно поэтому мы собираемся проводить передовые исследования в области безопасности здесь, в Великобритании», — сказал Сунак в своем заявлении. Идея заключается в том, чтобы «гарантировать, что везде и всегда, где и когда ИИ будет использоваться в Великобритании, это будет сделано безопасно и ответственно».
Одним из аспектов плана правительства, который вызвал интерес, является его сотрудничество с гигантами ИИ: DeepMind от Google (Bard, PaLM-2), OpenAI (ChatGPT, GPT-4) и Anthropic (Claude AI, Constitutional AI). Эти компании обязались предоставить правительству Великобритании ранний или приоритетный доступ к своим моделям ИИ в исследовательских целях и в целях безопасности.
Однако характер этого сотрудничества вызвал некоторые сомнения.
Выделив 100 миллионов фунтов стерлингов для нашей Целевой группы по ИИ, мы выделяем больше средств на безопасность ИИ, чем любая другая страна в мире.
Мы также будем работать с @DeepMind, @OpenAI и @Anthropic, которые предоставят нам ранний или приоритетный доступ к моделям для исследований и в целях безопасности. pic.twitter.com/SKypEisfXX
— Риши Сунак (@RishiSunak) 12 июня 2023
Потенциальные опасности чрезмерного государственного надзора за моделями ИИ становятся очевидными. Во-первых, предубеждения, присущие этим моделям ИИ, потенциально могут стать институционализированными. Более того, динамика власти между компаниями ИИ и правительствами вызывает беспокойство.
Необходим тонкий баланс сил и внимательное отношение к предвзятости, чтобы предотвратить разработку моделей, которые не просто политически корректны, а политически ориентированы.
«Более сложные вопросы, например, политические или философские, могут иметь несколько ответов, — объясняет TechTarget, — ИИ по умолчанию выбирает свой обучающий ответ, что приводит к предвзятости, поскольку могут быть и другие ответы».
Инвестиции правительства Великобритании будут направлены на две стипендии ИИ, предназначенные для решения насущных проблем в области снабжения сельскохозяйственных культур и здравоохранения с помощью технологий.
«Эти новые стипендии, наряду со всей нашей работой над ИИ на сегодняшний день, помогут построить более светлое будущее для вас и ваших семей», — сказал Сунак, подчеркнув человеко-ориентированный подход к ИИ в Великобритании.
Приверженность премьер-министра Сунака безопасности ИИ нашла отражение в его выступлении на конференции London Tech Week, где он заверил аудиторию, что Великобритания станет географическим центром глобального регулирования безопасности ИИ.
По его словам, уже готовится саммит по безопасности ИИ, который можно сравнить с климатическими конференциями COP.
Однако вновь обретенный энтузиазм правительства в отношении безопасности ИИ знаменует собой заметный сдвиг по сравнению с его предыдущей позицией.
До недавнего времени правительственная «белая книга» отражала инновационный подход к регулированию ИИ, в котором вопросы безопасности преуменьшались. Эта внезапная смена позиции после встреч с крупными представителями индустрии ИИ вызвала вопросы о восприимчивости правительства к влиянию индустрии.
Параллельно с этими событиями генеральный директор OpenAI Сэм Альтман совершает международное турне, стремясь укрепить связи с регулирующими органами по всему миру. Это также вызвало дискуссию о его заинтересованности в руководстве усилиями по регулированию по всему миру — и в то же время угрозу покинуть юрисдикции, которые хотят регулировать отрасль.
воодушевлен посещением израиля, иордании, катара, оаэ, индии и южной кореи на этой неделе
— Сэм альтман (@sama) 4 июня 2023
Разносторонний дискурс с участием независимых исследователей, групп гражданского общества и уязвимых сообществ необходим для всесторонней перспективы безопасности ИИ. В конце концов, хотя эти «титаны ИИ» держат ключи к будущему, жить в нем будут обычные люди.