projects/pi_02.07.2025.md

128 lines
8.3 KiB
Markdown
Raw Permalink Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

Технический анализ и коммерческое предложение на реализацию системы, по пожеланиям к чат-боту - ИИ-агенту в системе **Битрикс24**, с интеграцией данных из **BookStack**, использованием **моделей искусственного интеллекта** и дополнительными функциями безопасности, обновления данных и масштабируемости:
.
---
## 🧩 1. Общая архитектура системы
### Основные компоненты:
1. **Сервис синхронизации BookStack → База данных ИИ-системы**
2. **ИИ-движок для обработки запросов (LLM)**
3. **Сервис поиска/ранжирования статей по релевантности**
4. **Модуль интеграции с Битрикс24 (REST API / Webhook)**
5. **Система прав доступа и фильтрации контента**
6. **Модуль загрузки сторонних документов**
7. **Панель управления и мониторинг состояния системы**
---
## 🛠️ 2. Реализация ключевых возможностей
### ✅ Интеграция с BookStack
- Синхронизация статей происходит через REST API BookStack.
- Поддерживается полная выгрузка: книги → главы → страницы.
- При ответах с использованием статей, отдаётся ссылка на статью, графические материалы, вложенные файлы
- При каждом обновлении или добавлении статьи данные сохраняются в локальной базе данных (например PostgreSQL + Elasticsearch).
- Можно настроить частоту обновления: автоматически раз в сутки или по триггеру.
- Предусмотреть разграничение по правам доступа к материалам
### ✅ Интеграция с Битрикс24
- Чат-бот реализуется как открытый или внутренний прикладной веб-сервис, подключаемый к порталу Битрикс24 через:
- REST API (для CRM, задач, пользователей)
- Webhook (для получения событий от пользователя)
- Возможна интеграция в CRM, проекты, звонки, корпоративный портал.
### ✅ Использование ИИ-моделей
#### Варианты использования моделей:
1. **Локальная модель** (на сервере компании):
- Примеры: Llama 3, Qwen, Mistral, DeepSeek
- Собственный бэкенд внутри компании
- Требует GPU-ускорения (минимум NVIDIA A6000 или аналог)
- Полный контроль над данными, соблюдение регулирования
2. **Облачные модели на Российских серверах**:
- Языковая модель — за периметром: Яндекс GPT, GigaChat или хостинги LLM - MWS GPT и ему подобные
- Высокая отказоустойчивость, SLA, лицензирование
- Всё, кроме LLM — внутри компании(собственный бэкенд)
### ✅ Ручная загрузка документов
- Поддержка форматов: PDF, DOCX, XLSX, TXT, HTML
- Загруженные документы индексируются и становятся частью знаний ИИ-агента
- Возможность указать метаданные (например: "видимость только для руководителей")
### ✅ Масштабируемость
- Архитектура позволяет подключать другие источники знаний:
- Confluence
- Postgres
- HTTP REST запросы
- Wiki
- Все источники могут быть независимыми и иметь свои правила индексации
### ✅ Разграничение прав доступа
- Настройка ролей и групп пользователей (через Битрикс24)
- Фильтрация результатов по:
- Должности
- Отделу
- Профилю в CRM
- Пример: пользователи не с ролью «Руководитель» не видят секретных статей
---
## 💰 3. Коммерческое предложение
### 🔹 Условия сотрудничества:
- Работа в рамках одного договора (все вопросы по интеграциям и сторонним сервисам решает ваш исполнитель)
- Гарантия соответствия законодательству РФ (обработка ПДн, хостинг, сертификации)
---
## 📊 4. Стоимость и варианты реализации
| Параметр | Локальная модель | Гибрид |
|---------|------------------|-------------------------------------|
| **Предпроект, уточнение требований** | 65 000 ₽ | 65 000 ₽ |
| **Разработка системы** | от 750 000 ₽ | от 650 000 ₽ |
| **Оборудование (мин.)** | от 1 200 000 ₽ (NVIDIA A6000, 256ГБ RAM, 2ТБ NVMe SSD) | от 600 000 ₽ (или на серверах заказчика) |
| **Ежемесячная плата за модель** | ~ 0 ₽ (Open Source) | от 50 000 до 150 000 ₽ |
| **Поддержка системы** | от 40 000 ₽/мес | от 40 000 ₽/мес |
| **SLA / доступность** | зависит от оборудования | 99.9%+ |
---
## ⚙️ 5. Технические требования к оборудованию (для локальной модели)
### Минимальные требования:
| Компонент | Рекомендуемая конфигурация |
|----------|----------------------------|
| CPU | Intel Xeon W-2245 / AMD Ryzen Threadripper |
| RAM | 256 GB |
| GPU | NVIDIA A6000 / RTX 6000 Ada / H100 (опционально) |
| Storage | 2 TB NVMe SSD |
| ОС | Linux (Ubuntu 22.04 LTS) |
| Сеть | 100 Мбит/с минимум, рекомендуется 1 Гбит/с |
> Для более тяжёлых моделей (Llama3 70B, Mixtral) потребуется несколько GPU или использование Quantization.
---
## 📈 6. Преимущества решения
✅ Полный цикл разработки и внедрения
✅ Единая точка ответственности (все вопросы по интеграциям решаются нами)
✅ Соответствие российскому законодательству (ФЗ-152, ФЗ-187)
✅ Расширяемость и масштабируемость
✅ Контроль над данными и безопасностью
✅ Поддержка различных источников знаний
---
## 📌 Далее можно сделать:
1. **Определиться с моделью ИИ:** Open Source (локально), российская облачная модель, гибрид.
2. **Выбрать режим обновления БЗ:** автоматический (раз в сутки) или вручную.
3. **Уточнить политики доступа:** какие роли должны видеть какие данные.
4. **Заключить договор на проектирование и внедрение.**
---
Если необходимо, можно организовать пилотный запуск на ограниченном числе статей или прототип системы для тестирования(без интеграции с Битрикс24).