Site icon SOVA

Южная Корея первой в мире начала регулировать искусственный интеллект. Теперь там обязаны маркировать ИИ-изображения

8e80a400 f7b2 11f0 b5f7 49f0357294ff.jpg Новости BBC Южная Корея

Южная Корея стала первой страной мира, где начали действовать законы, регулирующие работу систем искусственного интеллекта. Теперь полученные при помощи ИИ изображения должны будут четко маркироваться, а люди будут обязаны контролировать работу компьютерных систем в важных областях.

Власти Южной Кореи говорят, то новые законы призваны укрепить доверие людей к ИИ и обеспечить безопасность.

Министерство науки и информационных технологий Южной Кореи охарактеризовало свод законов как вторые в мире такого рода.

Европейский парламент в июне 2024 года одобрил, как утверждается, «первые в мире правила в отношении ИИ». Но в отличие от Евросоюза, чей комплекс законов о регулировании искусственного интеллекта вступает в силу поэтапно до 2027 года, его южнокорейский эквивалент сразу начал действовать в полном объеме.

В мире по-прежнему существуют разногласия по поводу того, как регулировать ИИ. США предпочитают более мягкий подход, чтобы не сдерживать инновации. Китай также ввел ряд правил и предложил создать орган для координации глобального регулирования.

Что сказано в законах

По новому южнокорейскому законодательству, компании должны обеспечить контроль человеком над так называемым «высокоэффективным» ИИ, в том числе в таких областях, как ядерная безопасность, производство питьевой воды, транспорт, здравоохранение и финансовые услуги (например, оценка кредитоспособности и проверка перед выдачей кредитов).

Другие правила гласят, что компании должны заранее уведомлять пользователей о продуктах или услугах, использующих высокоэффективный или генеративный ИИ, а также ясно маркировать результаты, полученные с помощью ИИ. В том числе это относится к дипфейкам, которые трудно отличить от реальности.

Власти намерены не сразу наказывать нарушителей нового законодательства.

Компании получат годовой льготный период, а уже затем на них будут налагать административные штрафы за нарушения закона.

Но эти штрафы могут быть немалыми: например, за отсутствие маркировки генеративного ИИ грозит штраф на сумму до 30 миллионов вон (20 400 долларов США).

Правда, по сравнению с ЕС эти суммы невелики. В Европе несоблюдение правил может привести к штрафам в размере от 1% от глобального оборота компании за небольшие нарушения и до 7% — за нарушение запретов на использование ИИ с высоким уровнем риска.

Почему некоторые недовольны

Между тем многие основатели и руководители южнокорейских технологических компаний разочарованы, сказал Лим Чунг-вук, соруководитель Startup Alliance. «Существует некоторое недовольство — почему мы должны быть первыми, кто это делает?» — сказал он.

По мнению Startup Alliance, некоторые формулировки закона недостаточно четко прописаны, и компании могут по умолчанию применять безопасные, но менее инновационные подходы, чтобы избежать рисков.

Президент Южной Кореи Ли Чжэ Мён в четверг призвал политиков прислушаться к опасениям представителей отрасли и обеспечить достаточную поддержку венчурным компаниям и стартапам.

«Важно максимально использовать потенциал отрасли с помощью институциональной поддержки, одновременно упреждая ожидаемые побочные эффекты», — сказал он.

Министерство науки и информационных технологий планирует создать на переходный период платформу для рекомендаций и специальный центр поддержки для компаний.

«Кроме того, мы продолжим рассматривать меры по минимизации нагрузки на отрасль», — заявил представитель министерства. Он добавил, что власти рассматривают возможность продления льготного периода, если этого потребует ситуация в отрасли.

Регулирование искусственного интеллекта

В последние годы многие специалисты в области ИИ с разной степенью алармизма указывают на необходимость регулирования этой отрасли.

«Искусственный интеллект может привести к исчезновению человечества», — с таким, например, апокалиптическим предупреждением выступила группа руководителей и ученых из технологических компаний, включая OpenAI и Google DeepMind в мае 2023 года.

«Снижение риска исчезновения человечества из-за развития искусственного интеллекта должно стать глобальным приоритетом наряду с другими рисками, такими как пандемии и ядерная война», — говорится в заявлении.

Незадолго до этого ведущие фигуры в области разработки ИИ, включая Илона Маска и основателя Apple Стива Возняка, уже призывали притормозить исследования в этой области, пока не будут разработаны и применены надежные протоколы безопасности.

Однако сегодня некоторые из тех, кто подписывал эти письма, сами активно принимают участие в развитии индустрии ИИ, стоимость которой оценивается в сотни миллиардов долларов.

В январе 2025 года президент США Дональд Трамп объявил о создании компании Stargate, которая в ближайшие несколько лет инвестирует 500 млрд долларов в развитие технологий искусственного интеллекта и инфраструктуру. В проекте будут участвовать Ларри Эллисон из Oracle и Сэм Альтман из OpenAI.

А через месяц после этого США и Великобритания отказались подписывать международную декларацию по искусственному интеллекту во время саммита в Париже.

На саммите вице-президент США Джей Ди Вэнс раскритиковал подход к регулированию, предложенный президентом Франции Эммануэлем Макроном и другими лидерами. На Даунинг-стрит заявили, что Великобритания «будет подписывать только те инициативы, которые отвечают национальным интересам» страны.

Соглашение поддержали 60 стран, включая Францию, Китай, Австралию, Японию и Индию. Из документа следует, что подход к развитию технологии искусственного интеллекта должен быть «открытым», «инклюзивным» и «этичным». На саммите также впервые обсуждалось потребление энергии ИИ, которое, как предупреждают эксперты, в ближайшие годы может вырасти до уровня малых стран.

В ноябре Сундар Пичаи, глава компании Alphabet, которой принадлежит Google, предупредил, что ажиотаж вокруг технологий искусственного интеллекта может иметь «иррациональные элементы» и в результате этот пузырь может лопнуть.

Exit mobile version