• 注册
  • MOD模组 MOD模组 关注:35 内容:16399

    Bafchat (Bafchat)

  • 查看作者
  • 打赏作者
  • 当前位置: SodaMC > MOD模组 > 正文
  • 潮涌核心
    反派

    Bafchat (Bafchat)


    Bringing locally hosted AI to a Minecraft front-end through commands.



    介绍

    虽然已经有很多模组可以将OpenAI的API引入Minecraft,但至今还没有同样多的模组试图将本地LLMs引入游戏。Bafchat来拯救大家啦!向你的新AI小伙伴提问,或者在忘记命令或合成配方时寻求帮助。如果你的模型可以做到,Bafchat也可以做到(前提是你已经在Bafmod3Config.json中正确配置了提示)。

    另外,OpenAI的API并不是无限免费的,一旦用完了信用额度就得付费。Bafchat由你自己电脑(或本地网络)上托管的LLMs驱动,所以你可以无需担心产生费用就进行实验。


    默认配置

    默认情况下,Bafchat预先配置为与[local.ai的服务器]( 链接)配合使用,但我相信它应该可以与其他服务器配合使用,比如Kobold和Oobabooga提供的服务器。

    截至目前,推荐的模型是[RedPajama-INCITE-Chat-3B-v1]( 链接),因为它是一个小型模型,在CPU上处理提示相对较快,但作为一种折衷,它的响应还有很大改进的空间。

    注意:如果你选择了不同的模型,你需要在Bafmod3Config.json中修改提示样式,否则可能会得到意外的结果。

    其他注意:在编辑Bafmod3Config.json中的提示时,请确保保留占位符{{message}},将其放在模板中你想要的游戏消息的位置。


    特点

    • 一个基本功能齐全的前端,用于本地托管的大型语言模型的API。
    • 使用“/llm”向你的模型发送消息。
    • 在游戏内修改Bafmod3Config.json!只需使用“/bafmod set”,或者如果你弄乱了可以使用“/bafmod reset”将其恢复到默认设置。
    • 在位于.minecraft/config的Bafmod3Config.json中可以调整提示和API URL。

    需求

    • 一个本地托管的LLMs API
    • Fabric Kotlin
    • Fabric API
    • Fabric
    • Minecraft 1.20及更新版本

    轻微问题

    如果API托管在与你的Minecraft服务器相同的机器上(包括如果你在单机游戏中玩客户端),并且你的电脑性能不是特别强大,那么在处理提示时你的游戏可能会暂时变慢。使用更小、量化的语言模型可以帮助缓解这个问题。

    截图:

    Bafchat (Bafchat)

    来自Modrinth

    Bafchat 23.06.2

    Bafchat-23.06.2.jar下载23.06.2#Release
    展开
    版本: 23.06.2
    支持游戏: 1.20, 1.20.1
    类型: Fabric
    Release
    下载次数: 168

  • 收录

  • 请登录之后再进行评论

    登录
  • Soda任务 图片
  • 偏好设置
  • 主题
  • 帖子间隔 侧栏位置: