什么是自然语言处理?


Natural_language_processing_expl-min.png.webp

什么是自然语言处理?

自然语言处理 (NLP) 是一组帮助计算机系统理解人类语音的技术。

NLP 是人工智能的一个子集。 这是人工智能最困难的任务之一,目前还没有完全解决。

NLP是什么时候出现的?

自然语言处理的根源可以追溯到 1950 年代,当时英国著名科学家艾伦·图灵发表了《计算机与思维》一文,提出了所谓的“图灵测试”。 其标准之一是机器自动解释和生成人类语音的能力。

1954 年 1 月 7 日,乔治城大学的科学家展示了机器翻译的威力。 工程师们能够以全自动方式将 60 多个俄语句子翻译成英语。 这一事件对机器翻译的发展产生了积极的影响,并作为乔治城实验而载入史册。

1966 年,德国裔美国计算机科学家 Joseph Weizenbaum 在麻省理工学院的围墙内开发了世界上第一个 Eliza 聊天机器人。 该节目使用积极倾听的技巧模仿了与心理治疗师的对话。

chatbot-eliza.png.webp与伊丽莎对话。 数据:维基百科。

总的来说,系统对用户的信息进行了重新措辞,以表现出理解用户所说的内容。 然而,事实上,节目并没有深入到对话的本质。 当她找不到答案时,她通常会回答“我明白”(“明白”)并将谈话转向不同的方向。

同年,自动语言处理咨询委员会 (ALPAC) 发布了一份报告,并得出结论认为,数十年的研究未能达到预期。 结果,机器翻译的资金大幅减少。

在接下来的几十年里,NLP 领域一直没有突破,直到 1980 年代出现了第一个机器学习算法。 大约在这个时候出现了统计机器翻译系统,使研究重新焕发生机。

语言处理的繁荣出现在 2010 年,当时深度学习算法开始发展。 在此期间,出现了许多我们今天仍在使用的开发,例如聊天机器人、自动更正器、语音助手等。 大多数情况下,循环神经网络开始被用来解决这些问题。

NLP 系统的另一场革命发生在 2019 年,当时 OpenAI 提出了 Generative Pre-Trained Transformer 2 或 GPT-2 语言模型。 与现有的生成器不同,该神经网络能够创建长行相关文本、回答问题、撰写诗歌和撰写新食谱。

一年后,OpenAI 展示了新版本的 GPT-3,一家又一家的大型科技公司开始展示自己在大型语言模型领域的发展。

NLP 系统是如何工作的?

要回答这个问题,有必要关注我们人类如何使用自然语言。

当我们听到或读到任何短语时,我们的潜意识会同时发生几个过程:

洞察力;
理解意义;
回复。

感知是将感觉信号转化为符号形式的过程。 例如,我们可以听到一个特定的单词或看到它以不同的字体书写。 任何这些类型的获取信息都必须转换为单一的:书面文字。

理解意义是最困难的任务,即使是天生智能人也无法应付。 由于对上下文的无知和对短语的错误解释,可能会出现各种尴尬,有时甚至会出现严重的冲突。

例如,1956年,在美苏冷战最激烈的时候,苏联国家元首尼基塔·赫鲁晓夫发表讲话,其中响起了“我们将埋葬你”这句话。 美国人把所说的话看得太字面意思了,认为这是核攻击的威胁。 尽管事实上,赫鲁晓夫只是意味着社会主义将比资本主义更长寿,而这句话本身就是对卡尔马克思论点的解释。

该事件迅速升级为国际丑闻,苏联外交官和国家总书记不得不为此道歉。

这就是为什么正确理解言语的含义、所说或所写的上下文非常重要的原因,以防止这种影响人们生活的情况发生。

反应是决定的结果。 这是一项相当简单的任务,需要根据感知短语的含义、上下文以及可能的一些内部经验来形成一组可能的答案。

自然语言处理算法的工作原理完全相同。

感知是将传入的信息转换为机器可理解的符号集的过程。 如果这是来自聊天机器人的文本,那么这样的传入集合将是直接的。 如果这是音频文件或手写文本,那么首先你需要将其翻译成方便的形式。 现代神经网络成功地解决了这个问题。

通过权衡备选方案并将结果相互比较,也成功解决了文本响应问题。 对于聊天机器人,这可以是来自其知识库的文本响应,对于语音助手,它可以是一些智能家居对象的动作,例如打开灯泡。

有了理解,事情就有些不同了,这个问题应该分开考虑。

人工智能系统如何理解语音?

今天,以下类型的分析在解决语言理解问题中很常见:

统计;
正式的语法;
神经网络。

Statistical 广泛用于机器翻译服务、自动审阅者和一些聊天机器人。 该方法的本质在于“输入”大量已建立统计模式的文本数组的模型。 然后这些模型用于翻译文本或生成新文本,有时还需要理解上下文。

形式语法方法是一种数学工具,可以让你尽可能准确、明确地确定自然语言中的短语对机器的含义。 然而,这并不总是可能的,因为某些短语的含义甚至对人们来说都不清楚。

对于像俄语或英语这样的高级语言,用数学术语准确而详细地描述语音是一个极其困难的问题。 因此,形式-语法方法更常用于人工语言的句法分析,在设计过程中特别去除了歧义。

神经网络方法使用深度学习神经网络来识别输入短语的含义并生成 AI 系统的响应。 他们在刺激-反应对上进行训练,其中刺激是自然语言中的一个短语,反应是其中的 AI 系统的响应或 AI 系统的任何动作。

这是一种非常有前途的方法,但它具有神经网络的所有负面特性。

NLP 系统有什么用途?

自然语言处理系统用于解决许多问题,从创建聊天机器人到分析巨大的文本文档。

NLP的主要任务包括:

文本分析;
语音识别;
文本生成;
文本到语音的转换。

文本分析是对大量信息的智能处理,其目的是识别模式和相似性。 它包括数据挖矿、搜索、话语分析、问答系统和情绪评估。

语音识别是将文本文件或语音转换为数字信息的过程。 一个简单的例子:当你访问 Siri 时,算法会实时识别语音并将其转换为文本。

文本生成是使用计算机算法创建文本的过程。

文本转语音是语音识别的逆过程。 一个例子是使用语音助手从 Internet 上读取信息。

自然语言处理系统在哪里使用?

在日常生活中有多种使用 NLP 技术的方法:

电子邮件服务使用贝叶斯垃圾邮件过滤,这是一种 NLP 统计技术,可将传入邮件与数据库进行比较并识别垃圾邮件;
Microsoft Word 或 Google Docs 等文本编辑器使用语言处理来纠正单词中的错误,不仅是语法错误,而且是上下文错误;
现代智能手机中的虚拟键盘可以预测句子上下文中的下一个单词。
Siri 或 Google Assistant 等语音助手可以识别用户、执行命令、将语音转换为文本、搜索互联网、控制智能家居设备等等;
借助语音合成算法,PC 和智能手机上的无障碍应用程序可以为视障人士阅读文本和界面元素;
具有大量参数的语言模型,如 GPT-3 或 BERT,可以生成各种类型的各种长度的文本,帮助通过前几个单词搜索和预测句子;
机器翻译系统使用统计和语言模型将文本从一种语言翻译成另一种语言。

使用 NLP 技术时会遇到哪些困难?

通常,在解决 NLP 问题时,会使用递归神经网络,它有许多缺点,包括:

单词的顺序处理;
无法在内存中保留大量信息;
对消失/爆炸梯度问题的敏感性;
信息的并行处理是不可能的。

此外,流行的处理方法经常会误解上下文,这需要对算法进行额外的仔细调整。

大多数这些问题都可以通过大型语言模型来解决,但它们也存在许多困难。 首先是它们的可用性。 像 GPT-3 或 BERT 这样的大型语言模型很难训练,但大公司越来越多地将它们提供给公众。

此外,许多模型仅适用于流行语言,忽略不常见的方言。 这会影响语音算法识别不同口音的能力。

在使用光学字符识别技术处理文本文档时,许多算法仍然无法应对手写字体。

除了技术缺陷之外,NLP 还可能被用于恶意目的。 例如,2016 年,微软在 Twitter 上推出了 Tay 聊天机器人,它通过人类对话者的例子学习了如何进行交易所。 然而,仅仅 16 小时后,该公司就在机器人开始发布种族主义和冒犯性推文时关闭了它。

2021 年,来自阿联酋的骗子冒充一家大公司负责人的声音,并说服一名银行员工将 3500 万美元转入他们的账户。

2019 年,一家英国能源公司也发生了类似事件。 诈骗者通过使用假声音冒充公司董事,成功窃取了约 243,000 美元。

大型语言模型可用于大规模垃圾邮件攻击、骚扰或错误信息。 GPT-3 的创建者对此提出了警告,他们还报告说他们的语言模型会偏向某些人群。 然而,OpenAI 报告称他们降低了 GPT-3 的毒性,并在 2021 年底向广泛的开发人员提供了对该模型的访问权限,并允许他们对其进行自定义。

在 Telegram 上订阅 ForkLog 新闻:ForkLog AI – 来自 AI 世界的所有新闻

在文本中发现错误? 选择它并按 CTRL+ENTER

资讯来源:由0x资讯编译自FORKLOG。版权归作者ForkLog所有,未经许可,不得转载

Total
0
Shares
Related Posts