В Европейском союзе начали действовать требования к прозрачности в работе систем искусственного интеллекта общего назначения, передаёт Ulysmedia.kz
Новые нормы касаются таких моделей, как ChatGPT, Gemini и другие, способные генерировать текст, изображения или программный код.
Разработчики обязаны раскрывать принципы функционирования ИИ и источники данных, использованных для обучения моделей. Для продвинутых систем, представляющих потенциальный риск для общества, предусмотрена обязательная документация мер безопасности.
Инициатива направлена не только на повышение прозрачности, но и на защиту интеллектуальной собственности, а также прав авторов и правообладателей.
Частные лица получили право подавать иски в случае нарушения своих прав со стороны ИИ-систем. Новый надзорный орган — Европейское агентство по ИИ (European AI Office) — начнёт проверку новых моделей с августа 2026 года. Те, что были выпущены до 2 августа 2025 года, будут проверяться начиная с августа 2027-го.
По оценкам экспертов, максимальный размер штрафов за несоблюдение требований может достигать $17,1 млн (примерно €14,75 млн), или 3% от годового объёма бизнеса в сфере ИИ-услуг.