SakuraLLM

SakuraLLM

适配轻小说/Galgame的日中翻译大模型

Stars: 2295

Visit
 screenshot

SakuraLLM is a project focused on building large language models for Japanese to Chinese translation in the light novel and galgame domain. The models are based on open-source large models and are pre-trained and fine-tuned on general Japanese corpora and specific domains. The project aims to provide high-performance language models for galgame/light novel translation that are comparable to GPT3.5 and can be used offline. It also offers an API backend for running the models, compatible with the OpenAI API format. The project is experimental, with version 0.9 showing improvements in style, fluency, and accuracy over GPT-3.5.

README:

SakuraLLM

Sakura: SFT And RLHF models using Knowledge of Universal Character and Relationship Attributes for Japanese to Chinese Translation in Light Novel & Galgame Domain.

🤗 Hugging Face • 🤖 ModelScope

目前Sakura发布的所有模型均采用CC BY-NC-SA 4.0协议,Sakura所有模型与其衍生模型均禁止任何形式的商用!Sakura系列所有模型皆仅供学习交流使用,开发者对使用Sakura模型造成的问题不负任何责任。

介绍

  • 基于一系列开源大模型构建,在通用日文语料与轻小说/Galgame等领域的中日语料上进行继续预训练与微调,旨在提供开源可控可离线自部署的、ACGN风格的日中翻译模型。

  • 新建了TG交流群,欢迎交流讨论。

对于其他适配本模型的项目如使用非本项目提供的prompt格式进行翻译,不保证会获得与README中的说明一致的质量!

如果使用模型翻译并发布,请在最显眼的位置标注机翻!!!!!开发者对于滥用本模型造成的一切后果不负任何责任。

由于模型一直在更新,请同时注明使用的模型版本等信息,方便进行质量评估和更新翻译。

对于模型翻译的人称代词问题(错用,乱加,主宾混淆,男女不分等)和上下文理解问题,如果有好的想法或建议,欢迎提issue!

快速开始

教程:

详见本仓库Wiki.

部分使用方法:usage.md

模型下载:

参数量 发布时间-底模-版本 模型
32B 20240508-Qwen1.5-32B-v0.9 🤗 Sakura-32B-Qwen2beta-v0.9-GGUF
20240508-Qwen1.5-32B-v0.10pre1 🤗 Sakura-32B-Qwen2beta-v0.10pre1-GGUF
14B 20240111-Qwen-14B-v0.9 🤗 Sakura-13B-LNovel-v0.9b-GGUF
20240213-Qwen1.5-14B-v0.9 🤗 Sakura-14B-Qwen2beta-v0.9-GGUF
20240516-Qwen1.5-14B-v0.9.2 🤗 Sakura-14B-Qwen2beta-v0.9.2-GGUF
(最新) 20241007-Qwen2.5-14B-v1.0pre1 🤗 Sakura-14B-Qwen2.5-v1.0pre1-GGUF
7B 20240116-Qwen-7B-v0.9 🤗 Sakura-7B-LNovel-v0.9-GGUF
20240531-Qwen1.5-7B-Galtransl-v2.6 🤗 Galtransl-v2.6
1.8B 20240214-Qwen1.5-1.8B-v0.9.1 🤗 Sakura-1B8-Qwen2beta-v0.9.1-GGUF

p.s. 如果无法连接到HuggingFace服务器,可将链接中的huggingface.co改成hf-mirror.com,使用hf镜像站下载。

News

  1. 更新了基于Qwen2.5-14B的v1.0pre1预览测试版本模型Sakura-14B-Qwen2.5-v1.0pre1,改善质量,支持术语表(GPT字典),提高控制符保留能力,prompt格式参见下方说明

  2. 更新了基于Qwen1.5-7B的Galtransl模型,为视觉小说翻译任务专项优化。对视觉小说脚本中的行内换行、控制符、ruby注音等符号具有较好的保留能力。适配GalTransl视觉小说翻译工具并调优,支持GPT字典(字典写法见此)。

  3. 增加了vllm模型后端的支持,详见#40

  4. 感谢Isotr0py提供运行模型的NoteBook仓库SakuraLLM-Notebooks,可在Colab(免费T4*1)与Kaggle(免费P100*1或T4*2)平台使用。已经更新Kaggle平台的使用教程,可以白嫖一定时间的T4*2。 警告,Kaggle 官方已经采取措施封禁 SakuraLLM 所有模型,参见 ,在 Kaggle 上使用 SakuraLLM 将会导致永久性封号。请转移至租卡或者利用机翻站算力共享工具(为防止滥用,请自行搜索)。

  5. Sakura API已经支持OpenAI格式,现在可以通过OpenAI库或者OpenAI API Reference上的请求形式与Server交互。 一个使用OpenAI库与Sakura模型交互的例子详见openai_example.py

已经接入模型的工具

  1. 网站:轻小说机翻机器人已接入Sakura模型(v0.8-4bit),站内有大量模型翻译结果可供参考。你也可以自行部署模型并使用该网站生成机翻,目前已经支持v0.8与v0.9模型,且提供了llama.cpp一键包。

    轻小说机翻机器人网站是一个自动生成轻小说机翻并分享的网站。你可以浏览日文网络小说,或者上传Epub/Txt文件,并生成机翻。

  2. LunaTranslator已经支持Sakura API,可以通过本地部署API后端,并在LunaTranslator中配置Sakura API来使用Sakura模型进行Galgame实时翻译。
    使用KurikoMoe的版本可以支持流式输出。 目前官方版本已经支持流式输出,只需在翻译设置界面勾选流式输出即可。

    LunaTranslator是一个Galgame翻译工具,支持剪贴板、OCR、HOOK,支持40余种翻译引擎。

  3. GalTransl已经支持Sakura API,可以通过本地部署API后端,在GalTransl中配置使用Sakura模型来翻译Galgame,制作内嵌式翻译补丁。

    GalTransl是一个galgame自动化翻译工具,用于制作内嵌式翻译补丁。一个使用GalTransl和Sakura模型翻译的示例

  4. 翻译Unity引擎游戏的工具SakuraTranslator。感谢fkiliver提供。

  5. 翻译RPGMaker引擎游戏的工具RPGMaker_LLaMA_Translator。感谢fkiliver提供。

  6. AiNiee已经支持Sakura API,可以通过本地部署API后端,在AiNiee中使用Sakura模型进行翻译。

    AiNiee是一款基于【mtool】或【Translator++】,chatgpt自动批量翻译工具,主要是用来翻译各种RPG游戏。

  7. manga-image-translator已经支持Sakura API,可以通过本地部署API后端,使用Sakura自动翻译漫画。

  8. BallonsTranslator已经支持Sakura API,可以通过本地部署API后端,使用Sakura翻译漫画。

显存需求

下面的表格显示了使用不同量化和不同格式的模型时显存占用的大小。如果你的显卡显存不满足上述需求,可以尝试同时使用CPU与GPU进行推理。

  • llama.cpp GGUF模型(使用Qwen-14B v0.9模型进行测试)
模型量化类型 模型大小 推荐显存大小
fp16 26.3G 超出游戏显卡显存范围
Q8_0 14G 24G
Q6_K 11.4G 20G
Q5_K_M 10.1G 16G
Q4_K_M 8.8G 16G
Q3_K_M 7.2G 16G
Q2_K 6.1G 12G

模型详情

描述

效果

  • Galgame

    一个例子

  • 轻小说

    网站:轻小说机翻机器人已接入Sakura模型(v0.9),站内有大量模型翻译的轻小说可供参考。

  • PPL

    Sakura-14B-Qwen2beta-v0.9-iq4_xs_ver2: 4.43

    Sakura-32B-Qwen2beta-v0.9-iq4xs: 3.28

推理

  • openai api messages格式:

    • v0.9 使用代码处理如下:
      input_text_list = ['a', 'bb', 'ccc', ...] # 一系列上下文文本,每个元素代表一行的文本
      raw_text = "\n".join(input_text_list)
      messages=[
          {
              "role": "system",
              "content": "你是一个轻小说翻译模型,可以流畅通顺地以日本轻小说的风格将日文翻译成简体中文,并联系上下文正确使用人称代词,不擅自添加原文中没有的代词。"
          },
          {
              "role": "user",
              "content": "将下面的日文文本翻译成中文:" + raw_text
          }
      ]
  • prompt格式:

    • v1.0pre1 代码处理如下:

              gpt_dict = [{
                "src": "原文1",
                "dst": "译文1",
                "info": "注释信息1",
              },]
              gpt_dict_text_list = []
              for gpt in gpt_dict:
                  src = gpt['src']
                  dst = gpt['dst']
                  info = gpt['info'] if "info" in gpt.keys() else None
                  if info:
                      single = f"{src}->{dst} #{info}"
                  else:
                      single = f"{src}->{dst}"
                  gpt_dict_text_list.append(single)
      
              gpt_dict_raw_text = "\n".join(gpt_dict_text_list)
      
              user_prompt = "根据以下术语表(可以为空):\n" + gpt_dict_raw_text + "\n" + "将下面的日文文本根据对应关系和备注翻译成中文:" + japanese
              prompt = "<|im_start|>system\n你是一个轻小说翻译模型,可以流畅通顺地以日本轻小说的风格将日文翻译成简体中文,并联系上下文正确使用人称代词,不擅自添加原文中没有的代词。<|im_end|>\n" \ # system prompt
              + "<|im_start|>user\n" + user_prompt + "<|im_end|>\n" \ # user prompt
              + "<|im_start|>assistant\n" # assistant prompt start
      
              # 如果术语表为空,也可以使用如下prompt(在术语表为空时更加推荐)
              user_prompt = "将下面的日文文本翻译成中文:" + japanese
              prompt = "<|im_start|>system\n你是一个轻小说翻译模型,可以流畅通顺地以日本轻小说的风格将日文翻译成简体中文,并联系上下文正确使用人称代词,不擅自添加原文中没有的代词。<|im_end|>\n" \ # system prompt
              + "<|im_start|>user\n" + user_prompt + "<|im_end|>\n" \ # user prompt
              + "<|im_start|>assistant\n" # assistant prompt start
    • v0.9 文本格式如下:

      <|im_start|>system
      你是一个轻小说翻译模型,可以流畅通顺地以日本轻小说的风格将日文翻译成简体中文,并联系上下文正确使用人称代词,不擅自添加原文中没有的代词。<|im_end|>
      <|im_start|>user
      将下面的日文文本翻译成中文:日文第一行
      日文第二行
      日文第三行
      ...
      日文第n行<|im_end|>
      <|im_start|>assistant
      
      

      使用代码处理如下:

      input_text_list = ['a', 'bb', 'ccc', ...] # 一系列上下文文本,每个元素代表一行的文本
      raw_text = "\n".join(input_text_list)
      prompt = "<|im_start|>system\n你是一个轻小说翻译模型,可以流畅通顺地以日本轻小说的风格将日文翻译成简体中文,并联系上下文正确使用人称代词,不擅自添加原文中没有的代词。<|im_end|>\n" \ # system prompt
              + "<|im_start|>user\n将下面的日文文本翻译成中文:" + raw_text + "<|im_end|>\n" \ # user prompt
              + "<|im_start|>assistant\n" # assistant prompt start
  • prompt构建:

    • v0.8

      input_text = "" # 要翻译的日文
      query = "将下面的日文文本翻译成中文:" + input_text
      prompt = "<reserved_106>" + query + "<reserved_107>"
    • v0.9

      input_text = "" # 要翻译的日文
      query = "将下面的日文文本翻译成中文:" + input_text
      prompt = "<|im_start|>system\n你是一个轻小说翻译模型,可以流畅通顺地以日本轻小说的风格将日文翻译成简体中文,并联系上下文正确使用人称代词,不擅自添加原文中没有的代词。<|im_end|>\n<|im_start|>user\n" + query + "<|im_end|>\n<|im_start|>assistant\n"
  • 推理与解码参数:

参数
temperature 0.1
top p 0.3
do sample True
beams number 1
repetition penalty 1
max new token 512
min new token 1

如出现退化(退化的例子可参见#35#36),可增加frequency_penalty参数,并设置为大于0的某值,一般设置0.1~0.2即可。

微调

模型微调框架参考BELLELLaMA-Factory,prompt构造参考推理部分。

相关项目

致谢

Copyright Notice

v0.8版本模型的使用须遵守Apache 2.0《Baichuan 2 模型社区许可协议》CC BY-NC-SA 4.0协议

v0.9版本模型的使用须遵守Qwen模型许可协议CC BY-NC-SA 4.0协议

For Tasks:

Click tags to check more tools for each tasks

For Jobs:

Alternative AI tools for SakuraLLM

Similar Open Source Tools

For similar tasks

For similar jobs