В Казахстане создание фото и видео с помощью искусственного интеллекта само по себе не запрещено. Однако в отдельных случаях использование такого контента может повлечь штрафы и даже уголовную ответственность — если речь идет о синтетических материалах, введении в заблуждение или мошенничестве, сообщает Ulysmedia.kz. Об этом заявили спикеры на брифинге в Службе центральных коммуникаций.
Депутат Мажилиса Екатерина Смышляева, пояснила, что в первую очередь нужно различать, в каком контексте используется ИИ-контент и, в частности, дипфейки.
Справка: дипфейк (от англ. deep fake — «глубокая подделка») — это созданное нейросетью видео, фото или аудио, которое правдоподобно имитирует человека или событие, которых в реальности не было.
— Как таковой дипфейк может быть двух вариантов. Он может быть использован в негативном контексте, то есть для совершения мошеннических действий и так далее. А может использоваться и в позитивном контенте, когда это, например, цифровой контент в образовании или в журналистике. Сегодня уже многие ваши коллеги имеют свои аватары цифровые, я имею в виду телевизионных журналистов. Есть киноактеры уже и так далее, — сообщила она.
По словам депутата, сам по себе дипфейк не является нарушением закона, если человек дал согласие и соблюдены правила защиты персональных данных. Но если такие видео или изображения используют для мошенничества, за это предусмотрена отдельная ответственность.
Когда ИИ становится отягчающим обстоятельством
Смышляева подчеркнула, что использование дипфейка в преступных целях усиливает ответственность, и в правовом поле будет учитываться как отягчающее обстоятельство.
— То есть то, к чему это привело, это экономическое нарушение. Если были денежные потери или ущерб или репутации человека нанесен и так далее. То есть здесь совершенно разные могут быть разные спектры. Поэтому здесь дипфейк, использование информационной технологии рассматривается как отягчающее обстоятельство, — сообщила мажилисвумен.
Она также сообщила, что наказание за дипфейки планируют ужесточить. В Уголовный кодекс готовят изменения, и ответственность за использование таких технологий может стать строже уже в ближайшее время.
Отдельно спикеры остановились на вопросе маркировки ИИ-контента. По словам депутата, маркировать нужно не все:
— Маркировка относится к синтетическим результатам деятельности системы искусственного интеллекта. Синтетический результат систем деятельности искусственного интеллекта – это имитация того, что на самом деле не происходило. А если вы просто обработали видео с места событий, или обработали реальную фотографию, откорректировали текст, база которой в реальности существует, то это не синтетический результат, — сообщила Екатерина Смышляева.
Вице-министр цифрового развития Дмитрий Мун уточнил, что ответственность и санкции зависят от условий и масштаба нарушения.
— В зависимости от разных условий — разные штрафы. Есть отдельные штрафы компаниям, которые создают ИИ-контент. Сумма штрафа зависит от того, какие это компании — крупные или мелкие. Штраф от 15 до 100 МРП, в зависимости от происхождения ситуации, — отметил он.
Также, по словам спикеров, обязанность по маркировке в первую очередь лежит на владельцах и собственниках ИИ-систем, а не на рядовых пользователях.