翻译软件开发中的人的因素

2022-04-27 20:50:07 MemoQ

本文共2851个字,阅读需8分钟

阅读模式 切换至双语

人类与人工智能:朋友还是敌人? 并不是所有的翻译都适合机器翻译--否则,世界将永远需要“优质翻译”,没有人类的参与就无法产生。 翻译的最终用户是人类。还有,翻译软件的用户是人类。 在任何技术设置中,自愿代理总是人类。目前没有人工智能能够使用意志来做出选择。然而,人工智能可以以不同程度的成功,模仿或更确切地说是循环某些人类过去所做的决定。因此,任何技术都不应该建议取代人类代理或不将人类代理置于中间。 斯塔尼斯瓦夫·莱姆在《技术总结》中说,“每一项技术实际上都是所有生物掌握环境的先天趋势的人为延伸,或者至少在生存斗争中不屈服于环境”,他还建议人类将技术作为另一个器官。 在这个概念的基础上,我们可以把任何技术看作是人体和/或人类心灵的延伸。技术将赋予人类用户“超能力”,它将“增强”他们的能力,这样,就像翻译一样,人类将能够以同样的速度翻译得更快,同时保持良好的质量,甚至由于计算机精确记住事物的独特能力而提高质量。 人类不仅是翻译的使用者,也是翻译软件的使用者、设计者和开发者。当我教人文学科的学生使用翻译软件时,这种理解派上了用场,我不得不解决他们中间有时出现的技术恐惧症。在我看来,技术恐惧症的主要来源是认为计算机是外星人或未来机器人--一种有自己思想和意志的装置。“人工智能”这个术语的使用(或过度使用)确实表明了这一点,但我通常要求我的学生将一个软件想象成人类--设计师/开发人员和用户--之间交流的另一种方法。在这种背景下,软件是工具,也是渠道。 我不打算减少创建全自动“翻译机”的尝试。人们一直梦想着毫不费力地弥合语言鸿沟。尤其是因为圣经遗产描述了多种语言的存在是对人类对权力的贪婪的惩罚(参见巴别塔)。圣经描绘了五旬节的形象,每个人都听到使徒用自己的语言说话。在整个中世纪,有无数的努力来寻找完美的语言,据称上帝在创造世界时说的语言(参见翁贝托·艾科)。今天,我们有了像巴别塔鱼和通用翻译器这样的概念,它们将实现最终和完美的机器翻译。 我认为这些梦想是完全合理的,也值得尝试创造技术,使翻译完全自动化。不对的--因为它不真实--是声称它已经准备好了。任何机器都准备好取代人类的翻译代理。人工智能已经达到了“人类平等”。过去有很多关于这一点的讨论,但我认为现在很明显,这些说法充其量是夸大了。在科学界,有断言和有根据的推测(尽管迄今为止没有证据)认为翻译作为一项认知任务是人工智能完成的。这意味着,在我们实现人类等价机器翻译之前,我们需要实现奇点,即人类等价(或优越)AI。我们知道现在我们没有它,我们不知道它是否能被创造出来。我们也不确定是否应该创建它。 翻译软件:人的因素 在我们有了通用的翻译器之前,许多翻译(所谓的“高级翻译”领域)仍然是艰苦的工作--对人类来说。这意味着至少一些翻译软件的目的是使这项工作更快更容易,这样翻译人员--编辑和项目经理--就不会只是在他们的工作中跋涉,而是在他们的职业中茁壮成长。让我们面对现实吧,这在很大程度上取决于他们使用的实际工具。如果是这样的话,翻译软件就不全是“语言技术”(如“自然语言处理”),而是数据管理、文本处理、用户界面、质量保证工作流,等等。 因此,在可预见的未来,将会有围绕拥有非凡知识的人类用户构建的翻译软件。这类软件的任务是使他们的工作尽可能高效和愉快。按照我们的说法,他们不应该简单地跋涉,而是在工作中茁壮成长,这部分归功于他们使用的技术。 从软件开发组织的角度来看,有三种方法可以实现这一点: 发明新功能 采访强大的用户并从他们那里开发新的功能 从使用数据中进行分析和工作,并自动化可以自动化的内容;介绍快捷方式 不管你做什么,都要在上面贴一张人的脸。正如我前面提到的,软件是开发人员和用户之间沟通的手段。在这个对话中,通常是开发人员是更积极的代理。他们是推动想法和实现的人。因此,开发人员有责任使这种交流成为双向的--倾听用户的意见,并在需要帮助时提供帮助。接受反馈和高质量人工客户支持的结构化方法不是一个很好的拥有、“开销”或可选的附加项。它是业务的组成部分。 为了破坏而破坏? 我也对试图提出“破坏性”的想法持谨慎态度。首先,关于什么是“破坏性”没有达成一致。在我看来,一个为人类用户节省大量时间的新方法并不一定是一个颠覆性的特性。一个新的发展要想具有颠覆性,就需要从根本上改变我们做事的方式。例如,一辆电动汽车不会扰乱交通运输(尽管在足够大的数量上,它可能会扰乱化石燃料行业)--隐形传送会。 破坏性的开发也是不可预测的,甚至对开发人员本身也是如此。一项开发是否具有破坏性也取决于用户--人类用户对新技术的采用相对较慢。如果有人想发明颠覆性的技术,也需要大量的尝试和大量的失败。为了说明这一点,看看杰克·孔戴(Patreon的创始人)的演讲,他的主要信息是,某人看起来很成功,但你不知道他们有多少次失败。关键是,不要为了破坏而试图破坏。对于您的用户来说,这可能不是最好的前进方式。 伦理技术 那么,科技公司在道德软件开发方面的责任在哪里?作为一家公司,你能做些什么来将人的因素纳入你的发展过程?这里有几个问题和一些例子(大部分来自人工智能领域),你可以问自己。 首先也是最重要的,你的技术服务于一个光荣的目的吗?即使你相信它有,谁从中受益(崔普罗斯特)? 你的技术是你说的那样吗? “AI”这个词本身就是一个谬论,因为它向局外人暗示,他们在处理一个自己的头脑和意志的实体--而它两者都没有。正如凯特·克劳福德在《人工智能地图集》中所说,它既不是智能的,也不是人工的。人工智能不是智能的,因为它复制了以前的人类行为(它需要以前的人类行为来复制),它也不是完全人工的,因为单个人工智能模型可能需要人类多年的工作来收集和准备数据。 你的技术实现了隐藏的议程吗? 用户是否有隐藏的成本?开发商或运营商是否有隐性收益?如果技术实现协作,该技术是否为更强大的利益相关者创造或促进了不公平的优势? 您的技术是否以非法或不真诚的方式收集或使用数据? 在您的私隐政策和数据处理协议中,您是否披露了收集和使用数据的所有方式?如果你使用自动匿名,你是否说出了真相(即,它不是100%精确的)?你是否混合了来自不同客户或用户的数据,以便有足够的数据来训练和再训练你的AI? 你的技术气候意识--还是在每个不太明显的问题上都投入深度学习AI? 例如,可以使用简单的本地训练的统计信息来创建对双语敏感的预测类型--或者可以通过训练神经网络来创建同样的类型。后者的问题是,通过“将这种能源消耗换算成大致的碳排放和电力成本,作者估计训练一个单一的大语言模型的碳足迹相当于大约30万公斤的二氧化碳排放。这相当于纽约和北京之间的125次往返航班。“(Payal Dhar,2020) 最后,人的尊严。开发商是什么样的雇主也很重要。 资料来源: 人工智能地图集(凯特·克劳福德) 人工智能有巨大的碳足迹 人工智能的碳影响 GDPR本身 我过去的博客

以上中文文本为机器翻译,存在不同程度偏差和错误,请理解并参考英文原文阅读。

阅读原文