找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 130|回复: 0

可解释的人工智能如何使我们受益?

[复制链接]

1

主题

0

回帖

5

积分

新手上路

积分
5
发表于 2024-1-16 02:32:28 | 显示全部楼层 |阅读模式

在某些领域,我们使用的大多数算法(例如深度学习算法)都是相当不透明的。从准确性的角度来看非常强大,但解释性不太好。我认为人工智能的可解释性问题是一个非常具体的术语,在某些领域可能没有必要,但在其他领域却是必要的。道德与人工智能重要的是我们学会开发更透明的算法,或者至少是可以审计的。从了解我们输入的数据是否是有偏差的数据,到理解整个算法或算法的输出。透明度可以有不同的程度。算法的可解释性将是最高程度的,我们需要该算法或其结果易于街上的人看到。这是《通用数据保护和监管法》中包含的问题之一,该法规定,当人工智能算法做出的决定影响到一个人时,一个人有权获得可以理解的解释。

在哪些领域最需要可解释的人工智能?这是人工智能白皮书 塞内加尔电话号码表 和西班牙国家战略中都没有明确明确的问题。有人谈论敏感区域或高风险区域,但这尚未定义,正是因为我们不想限制非常准确的算法的研究和开发。我认为问题不在于我们为了可解释性而牺牲准确性,而在于试图平衡。了解人工智能如果一个人受到决定他们获得什么治疗或他们面临什么类型诊断的决定的影响,那么敏感领域可能是健康。还有与金融科技、保险问题、贷款发放、法律问题等有关的领域。也许在其他对人们不太敏感并且我们每天都使用人工智能的领域,它并不那么重要。正如我所说,我认为我们将努力实现平衡,并努力使人工智能变得可解释。在特别敏感的区域应尽可能最大。

Color-blue-1-300x150.jpeg

这些措施是否有助于社会接受和融入人工智能?建立信任至关重要。有时媒体或电影正在传播人工智能话题,让公民产生不信任感。我们看到的一些行为,主要与数据隐私有关,给他们带来了一些混乱,并产生了一定的保护自己的需要。因此,我们看到一些工具,例如新冠病毒雷达,并没有被人们采用,这可能在一定程度上是由于这种不信任。公民必须了解人工智能为他们服务,这一点至关重要。因此,我们需要实现公共管理现代化,并传达更可靠的人工智能这一理念,我认为这正在欧洲逐渐流行起来。也许在美国等其他地区,我们目睹了与数据传输、隐私、公司在项目上让步等有关的丑闻。我认为我们必须提高公民意识。我们对当前人工智能的能力和局限性越有文化,我们就越信任这项技术,我相信我们将能够提供更好的工具。

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|芝加哥华人服务中心

GMT-5, 2024-11-11 00:19 , Processed in 0.094991 second(s), 22 queries .

Powered by Discuz! X3.5

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表