如何解决使用拥抱脸赫尔辛基模型将文本从英语翻译成意大利语未完全翻译
我是一个新手,正在通过拥抱面孔库尝试数据输入任务的翻译模型并将文本从英语翻译成意大利语。
我根据文档尝试的代码:
from transformers import MarianTokenizer,MarianMTModel
from typing import List
#src = 'en' # source language
#trg = 'it' # target language
#saved the model locally.
#model_name = f'Helsinki-NLP/opus-mt-{src}-{trg}'
#model.save_pretrained("./model_en_to_it")
#tokenizer.save_pretrained("./tokenizer_en_to_it")
model = MarianMTModel.from_pretrained('./model_en_to_it')
tokenizer = MarianTokenizer.from_pretrained('./tokenizer_en_to_it')
#Next,trying to iterate over each column - 'english_text' of the dataset and
#translate the text from English to Italian and append the translated text to the
#list 'italian'.
italian = []
for i in range(len(data)):
batch = tokenizer(dataset['english_text'][i],return_tensors="pt",truncation=True,padding = True)
gen = model.generate(**batch)
italian.append(tokenizer.batch_decode(gen,skip_special_tokens=True))
这里有两个问题:
- 仅翻译和附加部分文本,即,如果段落超过特定长度,则会截断段落。如何翻译任意长度的文本?
- 我有将近 10,000 条数据,这需要花费大量时间。
解决方法
几乎所有当前的 MT 系统都是使用单个句子而非段落进行训练的。如果您输入的文本是段落,则需要先进行句子拆分。任何 NLP 库都可以(例如,NLTK、Spacy、Stanza)。在单个输入中包含多个句子会导致翻译质量变差(因为这不是模型训练的目的)。此外,Transformer 模型的复杂度与输入长度呈二次方关系(当所有内容在 GPU 上并行化时,它并不完全成立),因此输入很长时它会变得非常慢。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。