最好看的新闻,最实用的信息
11月22日 19.4°C-21.5°C
澳元 : 人民币=4.71
珀斯
今日澳洲app下载
登录 注册

一周三次“标志性失败”!AI要从“超红”变“黑红”了?(图)

2023-02-19 来源: 华尔街见闻 原文链接 评论0条

过去一周,人工智能领域有三个大的新闻:

一是特斯拉“召回”36万辆车具有全自动驾驶功能的电动汽车,以解决其全自动驾驶系统在十字路口周围做出的不安全行为及超速问题,消息当天特斯拉收跌5.7%。二是聊天机器人Bard错误频出,谷歌要求进行回炉重造,并动员公司全员进行内测。上周在相关消息传出后,谷歌市值一夜蒸发千亿美元。三是微软新版Bing公开测试一周后,网友发现该搜索引擎不仅会侮辱、欺骗用户,甚至已学会PUA(精神操控),还爱上用户诱其离婚。微软已经表示将限定Bing机器人“聊天长度”,避免AI“变态”。

纽约大学心理学和神经科学教授Gary Marcus表示,有人在Twitter上说这是三个不同的问题,但并不是,“特斯拉召回、微软Bing失败和谷歌Bard失败并不是独立的,每一个都反映了一个事实,那就是我们不能仅靠大数据和深度学习在现实世界中构建人工智能”。

“同时发生的内爆会将AI打入寒冬吗?”Marcus问到。

他在Twitter上说,我们需要新的方法,目前AI已经被过度营销。

一周三次“标志性失败”!AI要从“超红”变“黑红”了?(图) - 1

一周三次“标志性失败”!AI要从“超红”变“黑红”了?(图) - 2

从假新闻到假观点,AI会让互联网“更假”?

近期ChatGPT火爆全球,让人们看到了人工智能的飞速发展。

有分析称,ChatGPT显然是一个强大的新工具,有潜力在许多领域做很多好事,但也会有不利的一面。其中,像ChatGPT这样的AI将能够对任何事情产生无限的、几乎免费的“意见”。但与此同时也会产生很多虚假观点,并侵蚀自由主义话语中的另一个信任支柱,即活跃在线上的是真实的人。

如今,网络上的假新闻泛滥已经成为一个全球性的问题。假新闻以不实资讯误导大众,以带来政治、经济、市场利益或心理成就感的新闻或宣传,包括通过传统新闻媒体(印刷和广播)或在线社交媒体传播故意错误资讯或恶作剧,并形成一种负面循环。

毫无疑问,处理故意的假新闻是一个难题。而AI如果分享的是虚假观点,可能会产生更大的影响。宣传者明白这一点:让一个人相信某件事,最有效的策略也许就是让他们相信大多数和他们一样的人已经相信了这件事。

与过去的机器人不同,ChatGPT或类似的AI不需要发送几乎完全相同观点的复制粘贴语句。它们可以模仿人类,在一系列主题中产生无限连贯、细致入微和完全独特的内容。

分析称,由一个AI运行的Facebook账户可能会一开始每天发布食谱或关于它的狗的故事,过几个月或几年后才开始散布一些观点,比如,乌克兰应该为俄乌冲突负责。数以百万计的人可以、也将会在几乎没有成本的情况下创建这样的账户。

机器人账户不仅会主动发帖,还会对其他用户的帖子做出反应,并参与长期对话。它们可以被编程为寻找特定的关键词,如“乌克兰”、“北约”或“普京”,分析过去的文章,并给出合理的回答。

几乎免费的意见的无限供应可能会排挤真实的——即人类的——贡献。一旦机器人专家变得与人类无法区分,人类将开始质疑网络上每个人的身份,尤其是那些与他们意见相左的人。

分析还称,尽管AI还不成熟,但技术的局限性并不妨碍播下不信任的种子。某种意义上,技术局限甚至可能是一种功能,而不是bug。

在Twitter上随机争论的用户并不以其言论的准确性和复杂性而闻名。错误、不准确,甚至是编造的消息来源都可能给机器带来人性化的感觉。最重要的是可信度,当前版本的ChatGPT制造可信内容的能力肯定不比普通Twitter用户差。

一周三次“标志性失败”!AI要从“超红”变“黑红”了?(图) - 3

生成式AI是一面镜子:它最大的缺陷是人类的缺陷

也有分析指出,生成式AI有时会被批评有偏见、不准确甚至自相矛盾,但这些都不是生成式AI本身的特征。问题的根本原因是,我们训练神经网络来模拟的人类创造的内容是有偏见的、不准确的、自相矛盾的。为什么?因为我们,创造它的人,每个人都有自己的偏见,会犯错误,然后这些内容被用作训练神经网络的语料库。

一种可能的解决方案是确保当我们训练神经网络时,我们提供给它的内容是公正、准确和逻辑一致的。除非我们这样做,否则我们只是在模仿和延续过去的错误:输入垃圾,输出垃圾。到目前为止,这个问题一直困扰着OpenAI的GPT系列模型,因为它们都被提供了大量网络的快照,作为它们应该模仿的内容的基础。

网络当然不是完全公正、准确和逻辑一致的,这就是为什么OpenAI对其模型进行了编码包装,以试图防止用户得到模型可能产生的最坏结果——到目前为止,这只是部分成功。

不幸的是,确保用于训练神经网络的内容公正准确,说起来容易做起来难。另一种可能更现实的方法是试图确定神经网络存储信念的位置,然后编辑这些信念以使其准确,或者删除错误的信念,否则会与同样持有的正确信念相排斥。

无论采取何种方法,更棘手的挑战将是找出谁来决定哪些信念是有偏见的、不准确的或不合逻辑的,哪些不是。这与其说是一个技术挑战,不如说是一个文化和社会挑战。

分析指出,在决定语料库或模型的哪些部分是有偏见的、不准确的或不合逻辑的复杂过程中,以人为本的设计过程将是必不可少的,因为它强调理解使用系统的人的真实需求和生活经验,并经常迭代以达到更高的质量。

今日评论 网友评论仅供其表达个人看法,并不表明网站立场。
最新评论(0)
暂无评论


Copyright Media Today Group Pty Ltd.隐私条款联系我们商务合作加入我们

电话: (02) 8999 8797

联系邮箱: [email protected] 商业合作: [email protected]网站地图

法律顾问:AHL法律 – 澳洲最大华人律师行新闻爆料:[email protected]

友情链接: 华人找房 到家 今日支付Umall今日优选