Shiva 项目:Apache Tika 和 Pandoc 的替代品

理论上,可以通过对人工智来克服这一障碍。然而,随机性或任何其他自行生成线索的方法不足以让人工智能变得富有创造力。创造力学者认为,原创性是创造力的重要组成部分。这是人工智能程序需要克服的更大障碍。 如今,人工智能程序必须从人类生成的输出(例如图像、文本)中学习,以便能够产生类似的结果。因此,人工智能的结果很大程度上取决于程序训练的作品。此外,某些结果与源材料非常相似,以至于程序可能会侵犯版权。 (话又说回来,已经有一些关于使用受版权保护的材料来训练人工智能网络的诉讼,最著名的是《纽约时报》针对 ChatGPT 创造者 OpenAI 及其商业合作伙伴微软提起的诉讼。

能进行编程来生成随机线索

该诉讼的可以合法做什么、不可以做什么)。 然而,原创性对人类来说似乎比对人工智能程序要容易得多。即使人们在早期想法的基础上创作创意作品,其结果有时也会具有惊人的创新性。莎士比亚是历史上最伟大的借用者之一,他的大部分戏剧都是以早期的故事为基础,经过改造和重新想象,创作出更复杂的作品,具有深刻的意义和丰富的人物(文学学者们投入了整个职业生涯来揭示)。然而,当我要求 ChatGPT-3.5 根据《堂吉诃德》中卡德尼奥的故事(可能是失传的莎士比亚戏剧的基础)写出一部新莎士比亚戏剧的大纲时,计算机程序生成了塞万提斯原始 电话号码库 故事的枯燥大纲,并且无法想出任何新的角色或次要情节。这不仅仅是一个理论练习:  剧院已经开始上演使用人工智能程序创作的戏剧。然而,批评者认为当前的作品“无味、平庸”且“始终空洞”。目前,剧作家和编剧的工作是安全的。

电话号码库

结果可能会对人工智能公司

知道你不知道什么 讽刺的是,人的迹象之一就是它们倾向于歪曲事实。当我要求微软的 Copilot 向我提供五篇关于放松管制对房地产市场的影响的科学文章时,其中三篇文章的标题是假的,另外两篇文章的作者是虚构的,期刊名称也是不正确的。 Copilot 甚至为每篇文章制作了虚假摘要。 Copilot 没有提供信息(或承认信息不可用),而是简单地编造出来。大量捏造信息通常被称为“幻觉”,人工智能程序似乎经常这样做。 使用人工智能程序获得的虚假信息可能会产生严重后果。一家律师事务所因在使用 ChatGPT 编写的协议中发现提及虚构法庭案件而被罚款5,000 美元。 ChatGPT还可以根据虚假医疗数据生成令人信服的科学文章。如果欺诈性研究影响政治或医疗决策,可能会将人们的生命置于危险之中。

工智能程序与人类非常相似

在线媒体生态系统已经充斥着错误信息,而人变得更糟。 《体育画报》网站和其他媒体发表了由人工智能程序撰写的文章,作者是假冒的,作者拥有计算机生成的照片。当他们被发现时,网站删除了内容,出版商解雇了首席执行官。然而,低质量的内容创作者不具备删除内容或更正的新闻道德。经验表明,当一篇基于不正确信息的文章迅速传播时,可能会造成巨大伤害。 除了幻觉之外,人工智能程序如果接受不可靠信息的训练,还可以重现不可靠的信息。当坏想法广泛传播时,它们很容易被纳入用于创建人工智能程序的训练数据中。例如,我要求 ChatGPT 告诉我欧洲中世纪城堡最常建造哪个方向的楼梯。该程序尽职尽责地回应说,梯子通常是逆时针建造的,因为这种设计为右手防御者在与敌人战斗时从塔上下来提供了战略优势。这种解释的问题在于它并不正确。

工智能程序有可能使情况

我自己的科学知识领域——人类智力——特别的影响。当然,当我问及此事时,ChatGPT表示,智力测试对少数群体有偏见,智商很容易提高,人具有“多元智能”。这些流行的想法都不是真的。这些例子表明,当错误的想法被广泛分享时,人工智能程序更有可能传播这种科学错误信息。 这是关于这个主题的 USB 目录 另一项有趣的研究:“为什么多元智能理论是一个神经神话。”发表在《心理学前沿》杂志上- 大约。车道 管理限制 即使与其他技术创新相比,人工智能也是一个快速发展的领域。因此,怀疑这些限制是暂时的障碍还是人工智能程序的内置边界并不是没有道理的。 人工智能程序所犯的许多简单错误都可以通过现代方法来克服。向沃森这样的文本程序添加信息以“教导”它多伦多不在美国并不困难。

 

同样,将披头士乐队的正确数量或任何其他小细节输入人工智能程序以防止将来出现类似错误也并不困难。 即使是人工智能程序中出现的幻觉也可以用现代方法来处理。例如,程序员可以限制程序获取信息来回答明显问题的来源。尽管幻觉确实会发生,但人工智能程序不再提供虚假信息。当我要求 Copilot 和 ChatGPT 解释两个不相关的想法(弗雷德里克·肖邦和 1972 年迈阿密海豚队)之间的联系时,两个程序都正确回答说没有联系。即使当我要求每个程序给出一个连接时,两个程序都这样做了,但都强调结果是编造的。可以合理地预期,遏制幻觉和错误信息的努力将继续得到改善。 使用目前的方法,让人工智能表现出创造性行为是一项更加困难的任务。目前,大多数人工智能程序都是基于大量信息(例如文本、照片)进行训练,这意味着任何结果都取决于原始信息的特征。这使得现代人工智能程序不可能具有原创性。

容易受到外行人普遍误解

让计算机具有创造力需要新的方法。 重要问题 人工智能在理解任何信息、创造力和谎言(原文中是“BSing”这个词——大约是“lane”)方面所教授的课程非常有趣。但与围绕人工智能的更深层次问题相比,所有这些都是次要的——其中一些问题已经被哲学家争论了几个世纪。 一个基本问题是人们如何判断计算机程序是否真正智能。 Lemoine 的不成熟判断完全是基于 LaMDA 的话。按照他的逻辑,如果你教一只鹦鹉说“我爱你”,这就意味着这只鹦鹉真的很爱它的主人。这个评估理性的标准是不够的,因为词语并不总是反映人们的内部状态——同样的词语可以由智能和非理性生物发音:人、鹦鹉、计算机等。 然而,正如任何哲学学生都可以观察到的那样,不可能确定另一个人是否真正有意识。

 

没有人能够了解另一个人的内部状态,以确保他们的行为来自于具有自我价值感和世界地位的人。如果你的配偶说:“我爱你”,你不知道他是否是一个能够感受到爱的有机体,或者是经过训练可以说“我爱你”的高科技版本的鹦鹉(或计算机程序)。 ”借用笛卡尔的话,我可能怀疑其他人是否有意识,并认为我周围的一切都是对有意识存在的模拟。目前还不清楚智慧生命的世界和完美模拟智慧生命的世界之间是否会有明显的区别。如果人工智能变得智能,我们将如何了解它? 如果人类能够找到计算机程序弥补人类弱点的方法,人工智能将发挥最佳作用。

 

因此,著名的图灵测试(人无法区分计算机  的输出和人类的输出)可能是一个有趣且重要的里程碑,但肯定不是创造智能人工智能的终点。 模仿一个人的目标真的有必要证明智力吗?生物伦理学家、动物行为学家和其  他 为什么应该在博客上使用带有统计信息图表? 科学学科认为,许多非人类物种具有一定程度的自我意识。哪些物种具有自我意识以及它们的智力程度如何仍然是一个悬而未决的问题。在许多司法管辖区,禁止虐待动物的法律都是基于预防原则。换句话说,法律回避了特定物种是否具有感知能力的问题,而是制定了政策,就好像非人类物种具有感知能力一样,以防万一。

发表评论

您的电子邮箱地址不会被公开。 必填项已用 * 标注