内页横幅
当前位置:首页  >  项目案例

谷歌翻译服务距离商用还有半个世纪

2020-05-18 阅读:174

这些年来,Google Translate(谷歌翻译服务)一直被人诟病存在性别偏见现象,例如Google Translate会默认将某些“中性”职业和特定的性别联系起来,“医生”一定是男性,而“护士”则往往是女性。

从2018年开始,Google就尝试解决土耳其语和英语互相翻译时的性别偏见问题,为与性别有关的词条提供两种版本的翻译(和汉语不同,土耳其语是“中性”语言。汉语中有“他”和“她”两种人称代词来区分性别,而土耳其语种仅存在“o”一种人称代词,不区分性别),分别展示指代男性和女性对应的语境。但此种解决方案可扩展性和准确度都较低,在推广到其它语言的翻译时困难重重。

王铮老师(同传王)在接受《凤凰科技》采访时直言不讳的表示:谷歌翻译服务距离商用还有半个世纪,他们目前进展的情况我很清楚,只能机械的进行漏洞百出的翻译,同声传译的结果基本都是贻笑大方的案例。当然,中国的各家同声翻译软件在会议上使用也都是事故现场,不忍直视。

巴别塔——圣 经传说中人类合力建造的通天塔。上 帝为阻止此计划,让人类开始使用不同语言,无法沟通。以Google Translate为代表的AI机器翻译,被认为是有可能“重建巴别塔”的未来科技。

图片来源:Hacker Noon

今年4月22日,Google AI Blog(Google AI业务新闻博客)发表了最新的文章,宣布Google Translate使用了优化升级的AI技术,进一步减少了翻译中出现的性别偏见现象,且拓展性较原方案更强,目前已经可以支持英语与西班牙语、芬兰语、匈牙利语以及波斯语的翻译场景。

为何“没有感情”的机器翻译模型也会自带性别偏见属性?Google Translate究竟使用了何种AI技术来改善文本中的性别偏见现象?本期全媒派(ID:quanmeipai)编译VentureBeat文章,带你通过Google Translate在解决性别偏见方面的努力,了解AI行业探索“性别平等”之路。

不只是一个没有感情的机器

AI技术没有性别,却为何有性别偏见?

AI或机器学习技术自然没有性别可谈,可性别偏见和其它社会偏见(如对年龄、职业、宗教、种族、甚至是地域的偏见和歧视)却常出现在AI产品之中,这也是目前AI行业极为关注的问题之一。

Google Translate的负责人Macduff Hughes在接受采访时解释了AI技术“自带”偏见的原因,AI和机器学习技术是通过训练数据来实现对产品和服务的支持的,而这些训练数据都是来自真实的社会场景,也就难免带有社会中既有的各种偏见或歧视,接受了这些数据的AI模型则会“继承”这些观念。

用户在使用产品时又会受到这些偏见的影响,长此以往形成恶性循环,导致以性别偏见为代表的种种社会歧视越来越根深蒂固,而此种“偏见”的文本数据越多,AI模型会变得越来越“社会化”,和人一样对事物产生固有的认知偏见。

除去产生“性别偏见”的翻译文本外,Google Translate还曾因将胡乱输入的原文本翻译成恐怖的宗教预言而备受关注,这与Macduff Hughes解释的AI及机器学习的底层运作机制有直接的关系,因为Google Translate用来打造AI产品时使用的训练数据往往都是宗教文本。