Lobe Chat 是一个开源聊天机器人平台,旨在让开发者轻松构建和部署自定义聊天机器人。无代码界面、预训练模型、自定义训练和多模态支持。它使开发者能够轻松构建和部署智能、可定制的聊天机器人,以满足各种使用场景需求。
Lobe Chat 支持主流的大模型,包含计算机视觉模型,文本转语音已经语音转文本模型,LLM大语言模型,文生图,多模态模型以及支持本地大模型的部署。
虽然开源的大模型都支持相关的代码部署与安装,但针对不是开发人员来讲,若使用这些大模型无疑是十分困难的事情。好在Lobe
Chat简化了开发流程,不使用任何代码就可以使用各大模型。Lobe Chat不仅支持本地部署的大模型,也可以联网使用各大模型的API接口。
Lobe Chat不仅支持各大模型,还支持插件商店,可以从插件商店里面下载安装好用的插件,这个跟ChatGPT的GPTs类似。安装完成后,当调用语言模型时,若涉及到相关的服务,模型会自动调用相关的插件服务。
在 LobeChat 中将你的 AI 团队汇聚一处:根据个性化需求灵活定制智能助手功能,解决问题,提升生产,
探索未来工作模式.打造你的个人 AI 助手和专业团队,与 AI
携手推进你的创意事业、写作项目、学习征途和职业任务。从此,指挥一个专门的小组来应对特定挑战,提升工作效率,在个体崛起的时代中脱颖而出。这将在
LobeChat 中成为现实。
Lobe Chat的安装可以直接使用docker容器进行安装,当然在安装Lobe
Chat前,需要确保自己服务器或者电脑已经安装好了docker,并打开了docker。docker容量是一个跨平台的容器管理器,可以在官方网站很容易下载安装,这里就不做介绍了。
打开本地cmd窗口,在窗口中输入如下指令,Lobe Chat会自动在docker自行安装,安装完成后,可以在docker容器管理器中查看,并点击start按键,便可以自行打开Lobe Chat界面。
Lobe Chat默认使用3210的端口号,只需要在浏览器中输入如下链接,便可以打开Lobe Chat默认的启动界面
总体评价:聊天和绘画在同一个窗口,使用Dall-E3插件绘图,每次可以绘制4张,多个api可同时设置,模型切换比较方便,打开网页、对话反应比较慢,有时等得不耐烦。
除了在线安装本站同时提供源码下载自行安装
我们已经实现了对以下模型服务商的支持:
AWS Bedrock:集成了 AWS Bedrock 服务,支持了 Claude / LLama2 等模型,提供了强大的自然语言处理能力。
Google AI (Gemini Pro、Gemini Vision):接入了 Google 的 Gemini 系列模型,包括 Gemini 和 Gemini Pro,以支持更高级的语言理解和生成。
Anthropic (Claude):接入了 Anthropic 的 Claude 系列模型,包括 Claude 3 和 Claude 2,多模态突破,超长上下文,树立行业新基准。
ChatGLM:加入了智谱的 ChatGLM 系列模型(GLM-4/GLM-4-vision/GLM-3-turbo),为用户提供了另一种高效的会话模型选择。
Moonshot AI (月之暗面):集成了 Moonshot 系列模型,这是一家来自中国的创新性 AI 创业公司,旨在提供更深层次的会话理解。
Together.ai:集成部署了数百种开源模型和向量模型,无需本地部署即可随时访问这些模型。
01.AI (零一万物):集成了零一万物模型,系列 API 具备较快的推理速度,这不仅缩短了处理时间,同时也保持了出色的模型效果。
Groq:接入了 Groq 的 AI 模型,高效处理消息序列,生成回应,胜任多轮对话及单次交互任务。
OpenRouter:其支持包括 Claude 3,Gemma,Mistral,Llama2和Cohere等模型路由,支持智能路由优化,提升使用效率,开放且灵活。
Minimax: 接入了 Minimax 的 AI 模型,包括 MoE 模型 abab6,提供了更多的选择空间。
DeepSeek: 接入了 DeepSeek 的 AI 模型,包括最新的 DeepSeek-V2,提供兼顾性能与价格的模型。
Qwen: 接入了 Qwen 的 AI 模型,包括最新的 qwen-turbo,qwen-plus 和 qwen-max 等模型。
支持本地大语言模型 (LLM)
模型视觉识别 (Model Visual)
LobeChat 已经支持 OpenAI 最新的 gpt-4-vision 支持视觉识别的模型,这是一个具备视觉识别能力的多模态应用。
用户可以轻松上传图片或者拖拽图片到对话框中,助手将能够识别图片内容,并在此基础上进行智能对话,构建更智能、更多元化的聊天场景。
这一特性打开了新的互动方式,使得交流不再局限于文字,而是可以涵盖丰富的视觉元素。无论是日常使用中的图片分享,还是在特定行业内的图像解读,助手都能提供出色的对话体验。
TTS & STT 语音会话
LobeChat
支持文字转语音(Text-to-Speech,TTS)和语音转文字(Speech-to-Text,STT)技术,这使得我们的应用能够将文本信息转化为清晰的语音输出,用户可以像与真人交谈一样与我们的对话助手进行交流。
用户可以从多种声音中选择,给助手搭配合适的音源。 同时,对于那些倾向于听觉学习或者想要在忙碌中获取信息的用户来说,TTS
提供了一个极佳的解决方案。
在 LobeChat 中,我们精心挑选了一系列高品质的声音选项 (OpenAI Audio, Microsoft Edge Speech),以满足不同地域和文化背景用户的需求。用户可以根据个人喜好或者特定场景来选择合适的语音,从而获得个性化的交流体验。
Text to Image 文生图
支持最新的文本到图片生成技术,LobeChat 现在能够让用户在与助手对话中直接调用文生图工具进行创作。 通过利用 DALL-E
3、MidJourney 和 Pollinations 等 AI 工具的能力, 助手们现在可以将你的想法转化为图像。
同时可以更私密和沉浸式地完成你的创作过程。
插件系统 (Function Calling)
LobeChat 的插件生态系统是其核心功能的重要扩展,它极大地增强了 ChatGPT 的实用性和灵活性。
助手市场 (GPTs)
在 LobeChat
的助手市场中,创作者们可以发现一个充满活力和创新的社区,它汇聚了众多精心设计的助手,这些助手不仅在工作场景中发挥着重要作用,也在学习过程中提供了极大的便利。
我们的市场不仅是一个展示平台,更是一个协作的空间。在这里,每个人都可以贡献自己的智慧,分享个人开发的助手
渐进式 Web 应用 (PWA)
我们深知在当今多设备环境下为用户提供无缝体验的重要性。为此,我们采用了渐进式 Web 应用 PWA 技术,
这是一种能够将网页应用提升至接近原生应用体验的现代 Web 技术。通过 PWA,LobeChat
能够在桌面和移动设备上提供高度优化的用户体验,同时保持轻量级和高性能的特点。
在视觉和感觉上,我们也经过精心设计,以确保它的界面与原生应用无差别,提供流畅的动画、响应式布局和适配不同设备的屏幕分辨率。
移动设备适配
针对移动设备进行了一系列的优化设计,以提升用户的移动体验。目前,我们正在对移动端的用户体验进行版本迭代,以实现更加流畅和直观的交互。如果您有任何建议或想法,我们非常欢迎您通过 GitHub Issues 或者 Pull Requests 提供反馈。
安装说明
一、可以使用 GitHub Codespaces 进行在线开发
$ git clone https://github.com/lobehub/lobe-chat.git
$ cd lobe-chat
$ npm install
$ npm run dev
二、Docker宝塔部署
1、安装 Docker 容器环境(centOS系统)
$ yum install docker
2、Docker 指令部署
使用以下命令即可使用一键启动 LobeChat 服务:
$ docker run -d -p 3210:3210 \
-e OPENAI_API_KEY=sk-xxxx \
-e ACCESS_CODE=lobe66 \
–name lobe-chat \
lobehub/lobe-chat
指令说明:
- 默认映射端口为 3210, 请确保未被占用或手动更改端口映射
- 使用你的 OpenAI API Key 替换上述命令中的 sk-xxxx
- ACCESS_CODE添加访问 LobeChat 服务的密码,你可以设置一个长密码以防被爆破
——————————————————————————————————-
使用代理地址
如果你需要通过代理使用 OpenAI 服务,你可以使用 OPENAI_PROXY_URL环境变量来配置代理地址:
$ docker run -d -p 3210:3210 \
-e OPENAI_API_KEY=sk-xxxx \
-e OPENAI_PROXY_URL=https://api.cxhao.com/v1 \
-e ACCESS_CODE=lobe66 \
–name lobe-chat \
lobehub/lobe-chat
Crontab 自动更新脚本(可选)
如果你想自动获得最新的镜像,你可以如下操作。
首先,新建一个lobe.env配置文件,内容为各种环境变量,例如:
OPENAI_API_KEY=sk-xxxx
OPENAI_PROXY_URL=https://api.cxhao.com/v1
ACCESS_CODE=arthals2333
CUSTOM_MODELS=-gpt-4,-gpt-4-32k,-gpt-3.5-turbo-16k,gpt-3.5-turbo-1106=gpt-3.5-turbo-16k,gpt-4-0125-preview=gpt-4-turbo,gpt-4-vision-preview=gpt-4-vision
然后,你可以使用以下脚本来自动更新:
#!/bin/bash
# auto-update-lobe-chat.sh
# 设置代理(可选)
export https_proxy=http://127.0.0.1:7890 http_proxy=http://127.0.0.1:7890 all_proxy=socks5://127.0.0.1:7890
# 拉取最新的镜像并将输出存储在变量中
output=$(docker pull lobehub/lobe-chat:latest 2>&1)
# 检查拉取命令是否成功执行
if [ $? -ne 0 ]; then
exit 1
fi
# 检查输出中是否包含特定的字符串
echo “$output” | grep -q “Image is up to date for lobehub/lobe-chat:latest”
# 如果镜像已经是最新的,则不执行任何操作
if [ $? -eq 0 ]; then
exit 0
fi
echo “Detected Lobe-Chat update”
# 删除旧的容器
echo “Removed: $(docker rm -f Lobe-Chat)”
# 运行新的容器
echo “Started: $(docker run -d –network=host –env-file /path/to/lobe.env –name=Lobe-Chat –restart=always lobehub/lobe-chat)”
# 打印更新的时间和版本
echo “Update time: $(date)”
echo “Version: $(docker inspect lobehub/lobe-chat:latest | grep ‘org.opencontainers.image.version’ | awk -F’”‘ ‘{print $4}’)”
# 清理不再使用的镜像
docker images | grep ‘lobehub/lobe-chat’ | grep -v ‘latest’ | awk ‘{print $3}’ | xargs -r docker rmi > /dev/null 2>&1
echo “Removed old images.”
此脚本可以在 Crontab 中使用,但请确认你的 Crontab 可以找到正确的 Docker 命令。建议使用绝对路径。
配置 Crontab,每 5 分钟执行一次脚本:
*/5 * * * * /path/to/auto-update-lobe-chat.sh >> /path/to/auto-update-lobe-chat.log 2>&1
评论(0)