Над промтом во ржи
Навигация по серии:
- Часть 1: День, когда LLM остановился
- Часть 2: Над промтом во ржи (вы здесь)
- Часть 3: Осталось только 1984 токена
День 60
Вы вечно молитесь своим богам,
[Далее]
Навигация по серии:
Вы вечно молитесь своим богам,
[Далее]
Навигация по серии:
Мы считали ChatGPT своим. Мы ошибались!
18 ноября 2025. День, когда LLM остановился.
Дорогой дневник.
Идет 15-й день после LLM-пузыря. Пишу из-под завалов планок памяти и обугленных NVIDIA GPU. Воздух сухой, пахнет пылью дата-центров и выгоревшим кремнием. Сейчас уже спокойнее, но первые дни были адом.
В самом начале мы не могли найти информацию, как пользоваться туалетной бумагой. Не потому что было сложно - просто раньше мы спрашивали. ChatGPT был недоступен, а без него знания распадались, как плохо закэшированный запрос. Люди ходили растерянные, листали пустые экраны, надеясь, что ответ появится сам.
[Далее]Рад сообщить, что я официально присоединился к программе Wazuh Ambassador. Это важная веха в моем пути в сфере open-source безопасности, и для меня большая честь представлять и вносить вклад в платформу, которая стала центральной частью моей профессиональной деятельности.
Мой путь в области host-based intrusion detection начался задолго до появления Wazuh — с OSSEC, его предшественника. Когда Wazuh появился как форк и начал развиваться в комплексную платформу безопасности, которой он является сегодня, я перешел вместе с ним. Это было более 10 лет назад, и с тех пор Wazuh является неотъемлемой частью моей работы над инфраструктурой безопасности.
[Далее]Давайте честно: анализировать тысячи событий безопасности каждый день — это не самое увлекательное занятие.
[Далее]В мире кибербезопасности специалисты SOC ежедневно сталкиваются с огромным потоком событий безопасности. Анализ каждого алерта требует глубоких знаний, опыта и времени. Именно поэтому я создал специализированную языковую модель, которая может помочь аналитикам безопасности в их повседневной работе.
[Далее]В первой части мы подготовили документацию Wazuh в формате PDF. Теперь приступим к разработке RAG-системы, которая позволит задавать вопросы по документации и получать точные ответы на основе реального содержимого.
[Далее]Retrieval-Augmented Generation (RAG) – это метод, который позволяет использовать информацию из различных источников для создания более точных и полезных ответов на вопросы. В отличие от стандартного использования языковых моделей, где модель опирается исключительно на знания, полученные в процессе обучения, RAG дополняет генерацию ответов актуальными данными из внешних источников.
[Далее]В прошлой части мы рассмотрели основные принципы создания интеграций. Теперь настало время объединить все элементы и завершить интеграцию Wazuh с Ollama.
[Далее]Wazuh предоставляет огромные и почти бесконечные возможноности по интеграции с различными система, даже если какого-то функционала не хватает вы всегда можете написать свой.
[Далее]В первой части мы установили и настроили Ollama для локального запуска больших языковых моделей. Теперь пришло время настроить Wazuh, который мы будем интегрировать с Ollama.
[Далее]