更新时间:2021-12-09 12:02:47
人工智能曾经是科幻小说中的东西。但今天,它以聊天机器人、语音助手甚至谷歌地图的形式融入了我们的日常体验。事实上,根据Statista的数据,现在有84%的全球商业组织认为AI会给他们带来竞争优势。
人工智能可能很常见(至少在简单的层面上),但要把它发展到成熟就更难以捉摸了。训练机器像人类一样学习、反应和操作,需要在无数情况下输入大量数据。
对于组织来说,面对许多潜在的问题,仅仅管理它们是非常困难的。最常见也可能是最危险的问题是数据偏差。如果组织计划在人工智能方面做得很好,那么处理这种偏见应该是它的首要任务。否则,公司将面临算法交付错误结果并可能疏远大多数客户的风险。
解决这个问题的第一步是首先了解算法是如何变得有偏差的。每个开发人员(对于这件事,每个人)都有有意识和无意识的偏差,这会影响他们最初的开发,而且因为算法的智能只有训练数据那么聪明,可能会成为危险的先例。糟糕的数据可能会导致有偏见的人工智能做出伤害他人的积极决策。然而,尽管人类是所有偏见的根源,但他们也是消除偏见的关键。
如今的消费者希望AI变得更加自然和人性化,但要实现这一点,算法中输入的数据必须更能代表现实世界。
大规模收集真人的各种训练数据就是做到这一点的方法。经过审查的全球社区涵盖许多国家、年龄、性别、种族、文化、政治派别、意识形态、社会经济和教育水平,各组织可以验证其算法正在产生准确、类似人类和真正有用的结果。这适合于获得训练数据和正在进行的数据收集的基准集,因此建议引入允许持续反馈和修改的结构。
也许有些用户已经报告了产品的一些问题,比如语音或面部识别,然后这些反馈可以整合到下一个版本的算法中,供未来的用户使用。
现实是,尽管技术无限实现,AI也只能和写它的人一样好。当我们考虑到每个人有意无意的偏见时,就会造成很多问题。在某种程度上,人工智能总是带有偏见的,但通过在发布前收集实际的人类交互,企业可以训练自己的算法,获得能够为客户提供真正价值的结果。
我们已经到了人工智能开始影响我们社会中个人和群体未来的地步。因此,开发这些算法的公司必须发挥积极作用,才能让AI更好地反映社会,让每个人都更公平。
《阿斯加德之怒》是一款野心勃勃的VR动作游戏
TENAA揭示了一款新的诺基亚智能手机即将推出
三星Galaxy F62发布日期已经公布
Twitter预计iOS 14隐私控制将对2021年的收入产生“中等影响”
Apple为Apple TV +节目For All Mankind推出AR时间胶囊应用程序
苹果将在下个月发布新的iPad Pro机型
据分析公司称具有可折叠屏幕的iPhone将于2023年投放市场
Nvidia宣布用于加密货币挖掘的GPU系列
马克卡利出售新泽西州办公资产
亚马逊主导的圣地亚哥开发项目完成
StawbachCapital的CawleyPartners收购了2家DFW办公物业
亚马逊将在底特律大都会区增加5个设施