【? 94%的IT领导者希望更加关注AI伦理】
SnapLogic的一项研究发现,英国和的94%的IT决策者希望更加关注合乎道德的AI开发 。
算法中的偏差仍然是一个问题,并且是社会采用的最大障碍之一 。例如,已经发现面部识别算法对于社会的某些部分而言不如其他部分准确 。
如果不解决这些问题,我们就有自动解决诸如种族特征分析之类的问题的危险 。公众对AI的信任度已经很低,因此行业内有集体责任来确保高道德标准 。
SnapLogic的首席执行官Gaurav Dhillon评论:
“人工智能是未来,它已经对商业和社会产生了重大影响 。但是,与许多如此快速发展的发展一样,它有可能被用于不道德,恶意或仅仅是意想不到的目的 。
我们所有人都应该希望AI创新蓬勃发展,但是我们必须管理潜在的风险,并尽我们所能确保AI以负责任的方式发展 。”
SnapLogic的报告发现,超过一半(53%)的IT领导者认为,负责道德AI开发的责任在于开发它的组织,无论他们是商业企业还是学术机构 。
更少(17%)责怪从事AI项目的个人开发人员 。但是,的受访者(21%)对个人负责的可能性是英国(9%)的两倍以上 。
新兴的一些全球机构旨在建立AI标准和公平规则 。可以理解,人们对AI在技术中的作用非常关注 。,和俄罗斯等全球大国之间的所谓“人工智能军备竞赛”可能导致不负责任的事态发展,并带来毁灭性后果 。
但是,只有16%的受访者认为,由政府,学术界,研究机构和企业的代表组成的独立全球财团是建立急需的标准,规则和协议的唯一途径 。
IT领导者欢迎AI专家组,例如欧洲委员会人工智能高级专家组 。一半的受访者认为组织将接受此类团体的指导和建议 。英国人几乎相信组织会像同行(9%)那样无视这样的组织,几乎翻了一番(15%) 。
只有5%的英国IT领导者认为,如果没有法律强制执行,来自AI专家组的建议将毫无用处 。
87%的受访者希望对AI进行监管,尽管对此存在一些争论 。32%的人认为这应该来自政府和行业的结合,而25%的人希望有一个独立的行业联盟 。
基于行业的监管意愿也存在差异 。制造业中将近五分之一(18%)的IT决策者违反法规,其次是“技术”部门的13%,而在“零售,分销和运输”部门的百分比相同 。给出的理由几乎接近于两者之间的分歧,即认为它会减慢创新速度,并且认为开发应由其开发人员自行决定 。
“监管有其优点,可能很需要,但应该仔细实施,以保留数据访问和信息流,” Dhillon继续说道 。“缺少的是,人工智能系统将无法处理不完整或错误的数据,从而阻碍了未来人工智能创新的发展 。”
人工智能将是革命性的-实际上,有人将其称为第四次工业革命 。但是,正如一位伟大的虚构人物曾经说过的:“权力越大,责任就越大 。”
推荐阅读
- 人成熟后眼神的变化 女人最吸引男人的年龄
- 四喜鸟什么时候繁殖
- 疫苗出口需要什么手续 出口老挝疫苗
- 痛经怎么调理吃什么 痛经如何调理
- 教你iPhoneSE国行价格3288起值得买吗及iOS9.3正式版怎么升级
- Pull&bear什么牌子
- 圆明园有多大面积
- 潜艇潜行时,如何做到航速高于水面战舰 好玩的海战游戏
- 社会中的作家,给你可靠的感觉吗 尼采曾说处世之道应该是