Новый закон Японии об искусственном интеллекте может быть полезен для США и ЕС

Выберите язык

Russian

Down Icon

Выберите страну

Italy

Down Icon

Новый закон Японии об искусственном интеллекте может быть полезен для США и ЕС

Новый закон Японии об искусственном интеллекте может быть полезен для США и ЕС

4 июня 2025 года был обнародован японский закон об искусственном интеллекте , и его название уже ясно указывает на политический выбор, сделанный Токио: Jink? chin? kanren gijutsu no kenky? kaihatsu oyobi katsuy? no suishin ni kansuru h?ritsu (Закон о содействии исследованиям, разработкам и использованию технологий, связанных с искусственным интеллектом). В отличие от Европейского союза, заблокированного применением принципа предосторожности, не привязанного к объективным и измеримым элементам, Япония сделала крайне прагматичный и осознанный выбор: не «регулировать ИИ» — что бы это ни значило — а улучшать то, что необходимо для создания технологий, необходимых для его функционирования.

Короче говоря, там, где ЕС ставит припаркованный автомобиль с выключенным двигателем на ручной тормоз, чтобы он не перевернулся, Япония заботится о строительстве эффективных дорог, чтобы добраться до места назначения быстрее и лучше.

«В прошлом, — поясняет обсерватория Keiyaku Watch , — ЕС продвигал принятие так называемого жесткого закона, Закона об ИИ, устанавливающего строгие правила для тех типов ИИ, которые считаются высокорисковыми. В ответ США, опасаясь, что такой выбор может замедлить инновации… координировали свои действия с Японией и другими странами, чтобы принять подход к регулированию, основанный на мягком праве». Однако подход ЕС и переход к «легалистическому» курсу, навязанный указом администрации Байдена об ИИ, убедили Японию продолжить движение по пути мягкого права».

Основное внимание уделяется прикладным исследованиям и международной конкуренции.

Статья 3 как раз и посвящена созданию основ для руководства развитием ИИ в осознании того, что конкуренция в этом секторе не знает границ. Поэтому правило было рождено с целью повышения конкурентоспособности на международной арене промышленных секторов — и стоит подчеркнуть слово «промышленный» — связанных с ИИ.

В то же время, краткое отступление, как будто бы случайно помещенное туда, устанавливает важность для национальной безопасности исследований и разработок в секторах, связанных с ИИ. Важность этого отступления заключается в том, что, весьма нелицемерно по сравнению с западными дебатами, оно признает без всякого лицемерия, что технологии, связанные с ИИ, могут и должны использоваться для обороны страны (стоит помнить, что Япония, в силу пацифистского характера Конституции, не может иметь армию с наступательными возможностями).

Технологическая прозрачность как инструмент предотвращения незаконной деятельности

Даже вопрос незаконного использования или использования, наносящего ущерб обычному ходу жизни нации, решается структурно, а не с помощью множества статей, регулирующих отдельные случаи, с риском столкнуться с непредвиденными событиями, которые невозможно будет урегулировать при отсутствии конкретного правила.

Политический выбор, воплощенный в законе, заключался в том, чтобы в первую очередь сосредоточиться на прозрачности на каждом этапе цикла исследований, разработки и внедрения всех технологий, связанных с ИИ.

Этот выбор заслуживает дальнейшего изучения, поскольку, в отличие от регламента ЕС об искусственном интеллекте, он не налагает обязательств «объяснимости», которых невозможно достичь, а создает условия для тех, кто должен и развил необходимые навыки, чтобы иметь возможность проверить, что, как и кем было сделано.

Другими словами: законодательное предписание «объяснимости» ИИ будет подразумевать определение его уровня. Что должно быть точкой отсчета для измерения объяснимости? Объяснимость исследователя, работающего в Big Tech? Объяснимость выпускника по математике? Или обычного гражданина с дипломом средней школы?

Напротив, обязательство прозрачности означает, с гораздо более прагматичной точки зрения, предоставление квалифицированным субъектам возможности доступа ко всей информации, необходимой для понимания того, что стало причиной ущерба частным лицам или атак на учреждения.

Схема государственных, частных и индивидуальных обязанностей

Так называемый «архитектурный» подход закона о продвижении технологий, связанных с ИИ, делит обязанности и ответственность на три области.

В отличие от законодательства ЕС, японское законодательство требует от всех сторон сотрудничать для достижения заявленной цели, т. е. достижения технологического лидерства. Поэтому центральным и местным органам государственного управления придется использовать ИИ для повышения своей эффективности, университетам придется активно продвигать исследования и распространение полученных результатов, а также создавать широкую и надежную базу знаний, сотрудничая с государством и органами власти. Аналогичным образом, частному сектору придется повышать эффективность процессов и создавать новые отрасли за счет использования технологий, связанных с ИИ; а гражданам придется развивать интерес к этим технологиям.

На самом деле, именно государство должно принять необходимые меры для обеспечения того, чтобы все участники действовали согласованно на этой технологической сцене, не мешая друг другу и не мешая индивидуальным выступлениям.

Роль премьер-министра в реализации стратегии

Стратегический подход этого закона приводит к наделению Naikaku — канцелярией премьер-министра — полномочиями/обязанностями координации и контроля за тем, как реализуются цели регулирования. Это делается посредством учреждения того, что в Италии можно было бы приравнять к департаменту Президиума Совета, которому все другие государственные органы, включая независимые администрации и агентства, должны предоставлять мнения, разъяснения и необходимое сотрудничество.

Доступ к технологической инфраструктуре и наборам данных

Крайне интересным аспектом японского закона об ИИ является положение об обязанности совместно использовать объекты и оборудование (то есть суперкомпьютерные центры, телекоммуникационные сети и т. д.), но прежде всего наборы данных , которые должны быть доступны также и частному сектору.

При этом на Западе — возможно, за исключением Италии, которая в законопроекте об ИИ предлагает компромисс во имя общественных интересов — мы пока не смогли найти решение, позволяющее сбалансировать, с одной стороны, интересы владельцев авторских прав и (антиисторические) требования контроля со стороны национальных органов по защите данных, а с другой — потребность в доступе к ресурсам, необходимым для создания моделей машинного обучения и ИИ.

Геополитическая роль знаний и важность обучения

Различия между японским законодательством и подходом, которого придерживается Европейский Союз, очевидны также в отношении развития знаний и обучения.

Япония четко осознает важность развития национальной базы знаний — то есть, не зависящей от патентов и иностранной интеллектуальной собственности — и, следовательно, необходимость развития обучения по технологиям, связанным с ИИ, на всех уровнях. То есть не только в области научных исследований, но и в тех, где результаты должны будут использоваться.

Важность стратегического видения

Ни один план не выдержит удара битвы, гласит часто используемый афоризм генерала фон Мольтке, но это не значит, что планирование неправильно или невозможно. Именно такой подход возникает из установки японского закона об ИИ, основанного на осознании того, что нет смысла загонять технологическую эволюцию в рамки правил, но что вместо этого необходимо создать экосистему, которая позволит направлять ее развитие, принимая любые исправления в каждом конкретном случае, когда они необходимы.

Неважно, является ли этот подход плодом «политического видения» или следствием необходимости компенсировать недостатки, вызванные сокращением и старением населения посредством автоматизации. Фактически, он представляет собой третий путь по сравнению с американским, основанным на «лучше извиниться, чем быть позволенным», и с путем ЕС, который не способен освободиться от бюрократического дирижизма , несмотря на неоднократные попытки .

Пока еще рано говорить, какой из этих подходов окажется успешным, хотя (негативные) эффекты первых двух уже очевидны. В США Big Tech требует ослабления ограничений на доступ к данным, касающимся работ, защищенных авторским правом (в связи с правовыми спорами, подобными тем, которые продвигала New York Times в связи с незаконным использованием ее статей), и начала масштабную кампанию по получению согласия (или несогласия) пользователей на повторное использование их данных .

Европейский союз разрабатывает громоздкие акты по реализации регулирования ИИ, сводя на нет добродетельный подход, который использует правила для поддержки исследований, которые, к тому же, на практике, по сути, стимулируются экономическими рычагами .

В этой связи, если верно, что контроль над технологиями ИИ является основополагающим элементом развития отдельных государств-членов и обретения политической автономии Европейским союзом, то жесткая критика его выбора необходима и оправдана. Не потому, что они обязательно неверны, а потому, что они читаются с точки зрения прагматизма, а не с точки зрения принципиальных заявлений, не подкрепленных сравнением с реальностью, а с претензией на ее искажение.

repubblica

repubblica

Похожие новости

Все новости
Animated ArrowAnimated ArrowAnimated Arrow