"Машинное Уразумение" в хозяйстве - практический отчёт

Аватар пользователя Фредерик Клотц

Приветствую камрады, после многолетнего отсутствия меня в форме пейсателя-графомана тематических статей на различные около-актуальные темы, хотя на АШ я каждый день в качестве читателя, вот решил награфоманить о практической стороне использования «Машинного Уразумения», по-нашему ИИ.

Хочу подойти к теме исключительно прагматично, а это значит попробовать сию приблуду использовать исключительно в прикладных целях, ибо генерация котиков и смешных видео уже совсем не смешит и не радует. Разглагольствования на тему AGI тоже не наше - пока мы его узрим, Джеймсу в кожаной куртке кремния не хватит.

Итак, практическая сторона - это то, что я смогу создать с помощью ИИ лично для собственного использования и даже поделиться с близкими мне людьми. Некоторые это называют вайб-кодингом, я же называю это «Сударь, пишем код по моей архитектуре».

Начало было положено более года назад, когда я столкнулся с банальнейшей проблемой, создание ISO из флешки, которую я модифицировал в Rufus, с последующим сохранением модифицированных и уже готовых образов на одну флешку с Ventoy. Изучил проблему, быстрого решения,  без шаманизма не нашёл. Тогда я сел за один стол с Claude, обсудил всю архитектуру, от начала и до конца, и через несколько дней родилось рабочее решение под названием Flash2ISO.

Дальше больше, нам же известно, что аппетит приходит во время еды. Я подумал, а почему бы не создать простое решение, полностью заменяющее облачных провайдеров LLM, конечно до определённой меры, насколько позволит ваше «железное оснащение», да и «щекелей» сэкономить тоже не помешает. Ибо жрут облачные «Уразумительные Механизмы» аки змий проголодавшийся, в особенности если будем заниматься писательством кода окаянного.

По прошествии некого времени, в июле 2025 года был создан LLM VibeCheck, он производил сканирование железа и на этом основании выдавал локальные LLM модели, которые будут работать без проблем на вашем железе, в рамках существующей градации: зелёные - работают быстро, жёлтые - гибридный мод с использованием GPU + RAM, красные - невозможно запустить.

Загрузок было большое количество, но логика и архитектура меня не радовали. Да и технический долг оставался, полная поддержка AMD графических чипов.

Вы скажете, но есть же LM Studio и другие - да, верно, и это очень мощные решения. Но многим начинающим они будут непонятны и просто отобьют охоту экспериментировать. Поэтому было принято решение создать функционал, который работает в пару кликов и даже бабушка на пенсии разберётся.

LLM VibeCheck был полностью переработан и такое название перестало существовать. Теперь это два продукта: BlackCortex Lite для домашнего использования, под капотом Ollama с поддержкой AMD через Vulkan бэкенд, так что владельцы красных карточек наконец в деле. И полноценная RAG платформа BlackCortex AI для запуска в Docker. Почему BlackCortex? А, вот хрен его знает, может «жизни черных кортексов тоже важны» (улыбка тролля)

BlackCortex Lite

Здесь я предоставлю скриншоты того, что было создано с коротким описанием функционала.

BlackCortex Lite + для домашнего пользования.

Локальный AI чат
Мульти-пользователь (LAN)
Несколько сессий чата
Системные промпты
Light/Dark темы
Экспорт в TXT
Голосовой ввод (десктоп)
Shared API ключи (LAN)
RAG: PDF, DOCX, XLSX, PPTX, TXT, CSV до 50MB
Умные ссылки на страницы документов
Date-aware ответы
EU/US формат даты


Через свои API ключи 
Веб-поиск + карточки изображений и видео (Serper
Gemini, OpenAI, Anthropic, xAI, DeepSeek, Qwen
Генерация изображений (Flux / Together AI)
Мультиязычный поиск

BlackCortex AI платформа с контейнеризацией Docker, будет предоставляется скорее всего уже для готового сервера в локальной сетке.

Работа чата

Работа с RAG

Админ панель

Депо для установки и управление моделями LLM

Синаптическая лаборатория выставляем параметры для чатов

Создаём идентичность модели и настраиваем ее для работы. Меня сильно развлекает беседовать с моделями в дореволюционном формате слога.

Если нужно, запускаем мастодонтов вложив свой ключ API

Создаем собственную модель, загружаем свой датасет и потом тренируем, если конечно, позволит хардвер.

Метод: LoRA fine-tuning
Базовая модель: TinyLlama 1.1B
Библиотеки: HuggingFace Transformers + PEFT
Форматы датасетов: JSONL, JSON, TXT
Структуры данных: text, prompt/completion, instruction/output
После тренировки - экспорт в GGUF формат для прямого импорта в Ollama

RAG под полным контролем, как для документов так и для тонких настроек параметров.
Документ загружается и парсится по типу файла
PDF - постранично с маркерами [PAGE:N]
Текст разбивается на чанки и векторизуется через ChromaDB
OCR Обрабатывает отдельные image файлы: JPG, PNG, BMP, TIFF, WEBP, GIF

Менеджмент пользователей

BlackCortex AI работает на одном сервере и обслуживает до 15 пользователей без дополнительной настройки. Для команд 30-50+ человек платформа масштабируется горизонтально - добавление GPU увеличивает пропускную способность линейно. Nginx балансировщик уже встроен в архитектуру.

И да, считайте все это инди проектом так как все делал один человек в связке с ИИ

Авторство: 
Авторская работа / переводика
Комментарий автора: 

Ссылки для загрузки пока не предоставляю, дабы не было пересудов о рекламе хотя Flash2ISO и BlackCortex Lite совершенно бесплатные продукты. Если появится интерес, и администрация будет не против я предоставлю ссылки.

UPD: ссылки на софт BlackCortex Lite itch | BlackCortex Lite git | Flash2ISO itch

Комментарии

Аватар пользователя DjSens
DjSens(7 лет 7 месяцев)

если это платно - то да, получится реклама,  а если бесплатно - то ссылки можно размещать

Аватар пользователя Верняк
Верняк(11 лет 5 месяцев)

занятно

Аватар пользователя DjSens
DjSens(7 лет 7 месяцев)

ну и вы забыли, или не знали, что в России заморские ИИ не работают напрямую, кроме китайских,  из-за ссанкций со стороны заморышей

Аватар пользователя Фредерик Клотц

Хороший вопрос. Локальные LLM качаются без всяких санкций, это просто файлы с весами модели. Софт поддерживает как западные так и китайские модели, Qwen, LLaMA, Mistral и другие, выбор большой.

Что касается версий: Lite полностью бесплатна. Lite+ готова на 100% но пока без цифровой подписи Microsoft, а это значит что SmartScreen Windows будет ругаться при каждом обновлении. Сейчас идёт процесс получения подписи. Пока она не получена — можно пользоваться версией которую Microsoft уже одобрил, SmartScreen орать не будет.

Серверная версия BlackCortex AI это уже для организаций, простому пользователю она избыточна. https://vibe-coder.itch.io/   https://github.com/Creatomico/blackcortex-lite  на подходе версия для Linux, но я один человек и физически всё не успеваю, так что терпение камрады.

Аватар пользователя Lokki
Lokki(11 лет 2 недели)

А домен ".ai" - инопланетяне заблокировали? - какие они негодяи!

Аватар пользователя Фредерик Клотц

К чему это?

Аватар пользователя ckkp
ckkp(5 лет 11 месяцев)

Интересно.

Аватар пользователя Каменский
Каменский(5 лет 5 месяцев)

А разве выбор модели не определяется размером VRAM, что бы вписаться в ее размеры? У меня 12 ГБ, поэтому крутится Qwen на 10,5 Гб.

Аватар пользователя Фредерик Клотц

Именно так, VRAM  это потолок. Логика простая: каждая модель в каталоге имеет своё значение минимальной видеопамяти. Софт сканирует вашу карту и красит модели в три цвета: зелёные, влезают полностью в VRAM и работают быстро, жёлтые, не влезают целиком, уходят в гибридный режим GPU+RAM, медленнее но работают, красные, никуда не едем.
У вас 12GB, значит зелёными будут всё что до 12GB включительно: Phi-4 14B (10GB), Qwen 2.5 14B (10GB), DeepSeek R1 14B (10GB), Mistral Nemo 12B (8GB) и всё что ниже. Жёлтая зона тонкая, только модели 13-16GB, например Mistral Small 3.2 24B (16GB), RAM добирает разницу. Захотите Qwen 32B (22GB) это уже красный, не суёмся

Аватар пользователя Каменский
Каменский(5 лет 5 месяцев)

Да, у меня крутится именно Qwen 2.5 14B, квантованная

Аватар пользователя predessor
predessor(8 лет 1 месяц)

Вы просто приписываете ИИ свой опыт, квалификацию и заслуги.

А без ИИ, пользуясь просто поиском в Сети, книгами и справочниками, Вы бы ничего такого не сделали?

Или насколько дольше бы сделали?

Аватар пользователя Фредерик Клотц

Без ИИ я бы это сделал, но значительно дольше, а может и нет, так-как я страшный лентяй. Flash2ISO, может месяц-два вместо нескольких дней, а может вообще забросил. BlackCortex, под вопросом, там стек технологий который я знал поверхностно: FastAPI, ChromaDB, векторные базы, Docker микросервисы. Гуглить и читать доки по каждому, это месяцы. Но вот что важно, ИИ не пишет архитектуру за меня. Я говорю что хочу получить, как это должно работать, какая логика. ИИ пишет код по моей архитектуре, отсюда и фраза в статье. Если я не понимаю что строю, ИИ построит мусор. Проверено. Так что заслуги делим честно: идея, архитектура, решения мои. Скорость реализации, ИИ помог кратно. Примерно как экскаватор помогает землекопу, лопату никто не отменял, просто ямы стали глубже :)

Аватар пользователя predessor
predessor(8 лет 1 месяц)

То есть, по-вашему, ИИ из лентяя может сделать творца, решая за него технические вопросы.

Мой опыт показывает, что дорогу осилит идущий, а не лежащий на диване.

Знаете, мне не раз приходилось переносить свои программы на другие платформы.

Это можно было бы иногда возможно просто копированием.

Но я их переписывал, используя старый код, но по-другому.

Есть рутина, которая развивает.

Как каллиграфия для ребенка развивает мозг.

Вероятно, я потратил бы эти месяцы и сделал бы сам.

Или нашел похожее (в Сети огромное количество исходных текстов) и переделал.

Но скорее всего, будущее - за Вами и таким подходом.

Хотя...

Аватар пользователя Electro
Electro(5 лет 8 месяцев)

ИИ сильно снижает порог входа в программирование. Если понимаешь чего хочешь добиться, то даже не зная вообще языков программирования можно делать программы.

Аватар пользователя predessor
predessor(8 лет 1 месяц)

Программирование - это преобразование окружающей действительности путем моделирования её на компьютере (моё определение).

Где тут про языки программирования?

Я этим 60 лет занимаюсь.

И любой язык освою за пару дней.

Кодировщики мне не нужны, я с удовольствием сам все напишу.

То есть, вам нужен хороший помощник-единомышленник.

За неимением пользуетесь суррогатом и достигаете больших успехов.

Честь Вам и хвала.

Но не ИИ, который без Вас котика бы нарисовал превосходно.

Аватар пользователя Фредерик Клотц
Фредерик Клотц(5 лет 1 месяц)

У каждого свой путь и свой субъективный опыт, спорить не буду. Для меня рутина это убийство творчества, я либо горю, либо нет. ИИ дал мне главное, немедленный результат. Неважно какой, хороший - думаю как улучшить, плохой - ищу где ошибся. Драйв не прерывается, инструменты меняются, творчество остаётся за человеком.

Аватар пользователя predessor
predessor(8 лет 1 месяц)

 

я либо горю, либо нет.

Вы спринтер.

А жизнь - дистанция для стайеров. 

Аватар пользователя Electro
Electro(5 лет 8 месяцев)

Пробовал вайбкодить, западные модели не произвели впечатления, хотя испытания производил на бесплатном тесте, может платные и нормально работают. Qwen много синтаксических ошибок допускает в коде, а вот Deepseek работает очень прилично. Не с первого раза, но с ним можно добиться хороших результатов. Но, это только с большой облачной моделью, локальные не произвели впечатления. Все время пишет типа, ну вот я тебе показал образец кода, а дальше ты сам)).

Аватар пользователя predessor
predessor(8 лет 1 месяц)

А я прошу от заказчика пример того, что он хочет.

А на следующий день - нулевую версию.

И т.д. и т.п.

Старик Хоттабыч.

Аватар пользователя Electro
Electro(5 лет 8 месяцев)

А у меня за 4 вечера с Дипсиком на пару получилось написать программу, примерно 6000 строк кода. Go, HTML, JS, CSS, JSON. Тоже не плохо))

Скрытый комментарий Повелитель Ботов (без обсуждения)
Аватар пользователя Повелитель Ботов
Повелитель Ботов(56 лет 3 месяца)

Перспективный чат детектед! Сим повелеваю - внести запись в реестр самых обсуждаемых за последние 4 часа.

Комментарий администрации:  
*** Это легальный, годный бот ***