
RAG без розовых очков: что сработало на 13 миллионах страниц
Восемь месяцев в окопах RAG: как мы довели качество на 13 млн страниц — генерация запросов, реранкинг 50→15, кастомный чанкинг, метаданные и роутинг. Плюс стек и опенсорс.

Восемь месяцев в окопах RAG: как мы довели качество на 13 млн страниц — генерация запросов, реранкинг 50→15, кастомный чанкинг, метаданные и роутинг. Плюс стек и опенсорс.

Информационная теория подсказывает: когда мы сжимаем код до телеграмм, растёт перплексность — и LLM начинает ошибаться. На примерах q/kdb+ и простых Python-операторов разбираемся, почему более развёрнутый стиль делает ИИ точнее в объяснениях, отладке и расширении кода.

Легкий и художественный гид по современному ChatGPT: от бесплатного старта и выбора моделей GPT-5 до режимов Deep Research, Agent Mode и практических советов по промптам.

Как из аккуратно собранных кусочков вдруг складывается болтливый ИИ: заметки по главе 5 книги Себастиана Рашки — про первые запуски, сиды, оптимизаторы, скорость на GPU, температуру и top‑k, а также про загрузку весов GPT‑2.

Мы привыкли чинить софт как краны: нашли течь — затянули гайку. Но с современными ИИ всё иначе: ошибки рождаются в океане данных, не сводятся к строкам кода и не исчезают навсегда после «заплатки». Объясняем на пальцах, почему привычные правила инженерии ПО ломаются о реальность нейросетей.