Bafchat (Bafchat)
Bringing locally hosted AI to a Minecraft front-end through commands.
介绍
虽然已经有很多模组可以将OpenAI的API引入Minecraft,但至今还没有同样多的模组试图将本地LLMs引入游戏。Bafchat来拯救大家啦!向你的新AI小伙伴提问,或者在忘记命令或合成配方时寻求帮助。如果你的模型可以做到,Bafchat也可以做到(前提是你已经在Bafmod3Config.json中正确配置了提示)。
另外,OpenAI的API并不是无限免费的,一旦用完了信用额度就得付费。Bafchat由你自己电脑(或本地网络)上托管的LLMs驱动,所以你可以无需担心产生费用就进行实验。
默认配置
默认情况下,Bafchat预先配置为与[local.ai的服务器](
截至目前,推荐的模型是[RedPajama-INCITE-Chat-3B-v1](
注意:如果你选择了不同的模型,你需要在Bafmod3Config.json中修改提示样式,否则可能会得到意外的结果。
其他注意:在编辑Bafmod3Config.json中的提示时,请确保保留占位符{{message}},将其放在模板中你想要的游戏消息的位置。
特点
- 一个基本功能齐全的前端,用于本地托管的大型语言模型的API。
- 使用“/llm”向你的模型发送消息。
- 在游戏内修改Bafmod3Config.json!只需使用“/bafmod set”,或者如果你弄乱了可以使用“/bafmod reset”将其恢复到默认设置。
- 在位于.minecraft/config的Bafmod3Config.json中可以调整提示和API URL。
需求
- 一个本地托管的LLMs API
- Fabric Kotlin
- Fabric API
- Fabric
- Minecraft 1.20及更新版本
轻微问题
如果API托管在与你的Minecraft服务器相同的机器上(包括如果你在单机游戏中玩客户端),并且你的电脑性能不是特别强大,那么在处理提示时你的游戏可能会暂时变慢。使用更小、量化的语言模型可以帮助缓解这个问题。
截图:
Bafchat 23.06.2
* Config can now be edited in-game.
* Bafchat's name can be adjusted, as well as a whole bunch of other important parameters!
* This version also makes the API request happen asynchronously, avoiding a freeze of the Minecraft server.
收录