sakura模型:
https://huggingface.co/SakuraLLM 露娜翻译器:
https://github.com/HIllya51/LunaTranslator 直接上地址,要搭梯子
最新版的露娜翻译器支持了sakura模型的api,只要显卡支持就能很简单的本地部署了,所以发个帖子聊聊
目前模型最低要求显存12G,达到条件的朋友可以试试
进去模型页面看llama.cpp一键包教程那里,跟着一步一步做就好,模型选最新的那个llama.cpp GGUF模型(Sakura-13B-LNovel-v0.9.0pre2-GGUF),根据你显卡下能用的那个就好,只用下一个,不用全下,最后部署完了记得检查电脑有没有什么软件占用
http://127.0.0.1:8080这个
端口
目前模型还有些比较突出的缺点,首先是翻译得挺慢,一段普通对话大概要8到10秒,长对话的话20多秒都有可能
还有生造词会乱翻或者跳过(什么gpt通病)。不过这点可以通过露娜翻译器添加专有名词解决,问题不大
还有上下文联系处理得不算好,大家知道日语很喜欢省略主语,在翻译这类对话时会乱加词,比如原文
A:他明天很忙,说不定没空出来玩B:没事,我会去帮忙的
这段话如果正常翻译应该翻译成(B:没事,我会去帮他忙的)
但是模型就可能翻译成(B:没事,我会去帮你忙的)
总之目前看来还是未来可期,就我个人觉得大部分情况比百度有道的翻得好,期待未来翻译速度快点,配置要求低点
截了段galgame的对比,十几张图吧,避免太乱给丢出售框里了,大家可以看看对比
绿字的是阿里v2,红字是百度,紫字是有道,蓝字是huoshan,以上都是露娜翻译器自带的免费在线翻译,收费的那些我没试过,白字是sakura模型翻的
此帖售价 0 SP币,已有 160 人购买
若发现会员采用欺骗的方法获取财富,请立刻举报,我们会对会员处以2-N倍的罚金,严重者封掉ID!