底层统一封装 LLM 接口,支持 OpenAI、DeepSeek、Qwen、ChatGLM 等主流模型。支持本地化部署 Ollama/vLLM,一键切换模型底座,业务代码零感知。
内置 PDF/Word/Excel 解析引擎与分词器。支持向量数据库(PostgreSQL/Milvus)存储,实现“文档上传 -> 自动切片 -> 向量化 -> 语义检索”全自动化流程。
支持模型函数调用(Tools),赋予 AI 执行任务的能力。可自动查询数据库、调用外部 API、执行联网搜索,将“对话”转化为“行动”。
基于 RBAC 模型设计的完善权限系统。支持用户管理、角色分配、部门隔离。详细的对话日志审计与 Token 消耗统计,确保 AI 使用安全合规。
提供开箱即用的 Web 对话界面(类似 ChatGPT UI)。后端模块化设计,代码结构清晰,支持 Docker 容器化一键部署,大幅缩短项目交付周期。
支持“数据不出域”的纯内网部署模式。模型推理、向量检索、业务数据存储全部在本地服务器完成,彻底杜绝核心数据外泄风险。
FAFUAI 底座内置了完整的非结构化数据处理管道,让企业海量文档瞬间变为 AI 可读的知识资产。