Да-да, ИИ снова пытается сдать лабораторную за вас, но проверяющий сегодня — Gentoo. 14 апреля 2024 года Совет Gentoo принял простое и громкое правило: контент, созданный с помощью инструментов на базе NLP‑моделей, в официальные проекты Gentoo не принимается. Важно: речь о содержании вкладов, а не о программных пакетах — добавлять софт, связанный с ИИ, по‑прежнему можно.
Зачем такая строгость? Потому что открытое ПО держится на доверии, прозрачности и проверяемости. Там, где «волшебный генератор» обещает мгновенный текст или код, начинаются сомнения: кто автор? откуда данные? насколько это корректно? Совет выбрал сторону осторожности — и объяснил почему.
Три кита решения.
- Авторское право. Мир ещё не договорился, кому принадлежат результаты генерации и что с ними делать в правовом поле. Использование таких материалов может как нарушить чужие права, так и ослабить собственные гарантии копилефта, на которых стоит экосистема Gentoo.
- Качество. Популярные LLM умеют писать убедительно, но иногда — убедительную чепуху. Проверка и вылов ошибок превращаются в нечестную нагрузку на мейнтейнеров и пользователей, а общий уровень проектов рискует просесть.
- Этика. От спорных датасетов и «жадных» вычислений по энергии и воде — до снижения качества сервисов и роста спама/скама: бизнес‑практики вокруг ИИ вызывают слишком много вопросов.
Что разрешено? Пакеты для ИИ и программы, которые upstream создаёт хоть с ИИ, хоть без — могут попадать в репозитории. Запрет касается именно контента вкладов в Gentoo, который готовили или «полировали» модели.
И ещё одна важная оговорка: решение можно пересмотреть, если появится инструмент, лишённый описанных рисков. Но пока в приоритете — человеческий вклад, который можно атрибутировать, проверить и смело лицензировать. ИИ — отличный кальян для мыслей, но в репозиторию Gentoo попадает только то, что вы продули сами.