400 050 6600
数据分析师

手机号

验证码

30天自动登录
当前位置:首页 - Q&A问答

Q&AQ&A问答

怎样做才能帮助人工智能提供更好的动力?

来源:CPDA数据分析师网 / 作者:数据君 / 时间:2020-07-08

在AI革命的前沿,由数据驱动的组织有责任建立能够促进透明,平等和信任的模型和道德规范
这些对于提供公平,合理的AI驱动解决方案至关重要,没有它们有偏见的数据将永远不会受到挑战,数据集可能没有代表性或过时,选择它的人或整个社会的有意识或无意识的偏见可能会污染它,而且当这些错误来自人工智能时,由于算法的复杂性和速度,而且往往是局外人(实际上是人类)无法检查其逻辑,因此错误可能更难以发现,更糟糕的是,人们往往高估了AI应用程序的功能,驾驶员因其车辆的“自动驾驶”功能而沾沾自喜,他们并没有准备好接管速度出现问题的瞬间,客机的空气动力学问题需要依靠单个传感器进行软件修复,该传感器提供不良数据并导致悲剧。

现在许多法官在获得保释,惩罚和假释判决之前,通常会获得AI推荐
这些应该严格建议,但是将计算机的明确答案视为权威的诱惑很强烈,更糟糕的是某些正在使用的算法似乎无法消除系统性的种族偏见,无法与少数被告抗衡,有时堆叠的甲板只是一个陌生的问题,当研究人员测试商业面部识别程序时,他们发现深色皮肤的女性的错误率比浅肤色的男性高得多,据报道在系统地降低女性评级之后,另一项旨在筛选主要技术雇主的求职者的AI工作被取消了,因为过去女性求职者的比例较低。

这些失败削弱了所有AI解决方案的信誉,其他地方使用的那些AI解决方案,它们取消了现金保释,并使更多人脱离了监狱
它们还可能招致监管机构的愤怒,处理透露种族或族裔血统,政治见解,宗教和哲学信仰……或性取向的个人数据。” 违反者可被处以全球收入的4%的罚款,面临着一种声称,允许房屋销售商和房东针对特定邮政编码的算法相当于“ 数字修订 ”,这是住房歧视的数字时代版本。

经过训练能够发现语言和个人数据模式的AI应用程序屡屡采用嵌入式偏见
但是他们倾向于发现的相关性不一定是因果关系。从统计学上讲,被教为将来自较贫穷和较高犯罪地区的人们视为威胁的软件实际上是种族主义者,该问题非常严重,技术咨询公司IDC预计在未来两年中,用于AI治理和合规人员的支出将增加一倍,可以理解人类对人工智能保持警惕,AI是人类“ 的生存威胁”,在近的一项针对技术和数据隐私的消费者情绪调查中,有62%的受访者表示不同意将AI用于确定社会决策,例如刑事司法,医疗保健和州法律,值得注意的是,受过高等教育的人似乎对技术的信任度(拥有学士学位或更高学位的受访者占64%)比拥有高中文凭或更少的受访者(54%)更不信任该技术。

部署AI应用程序的公司从一开始就坚持公平和透明
可以节省时间和金钱,并解决公众的关注。无法明确解释和独立评估的算法将不会受到关键决策的信任。明显的偏见不会从意图上得到怀疑,幸运的是这些问题都有解决方案,可以对面部识别程序进行额外的培训,以使它不会仅仅因为不那么常见而终区别于特定的形状或颜色,提出假释建议的软件可以配备“对抗学习”子例程,以检查系统性偏倚。

重要的是,我们必须对数据质量保持警惕,并为用于开发AI模型的数据建立严格的数据质量标准和控制
我们可以通过关注三个主要领域来实现这一目标:
1、数据治理:每家公司都需要清晰,透明的数据策略,云的多租户性质为扩展托管数据的可用性提供了独特的机会,从而可以以更加透明的方式为AI模型提供支持。
2、可解释的AI:深度学习神经网络等先进的机器学习算法功能强大,但缺乏透明度,因此存在监管,道德和采用方面的风险。除了在开发过程的早期与风险和合规专业人员合作之外,我们还必须开发和使用AI解释工具,因此,未经适当的审核和批准,任何模型都无法部署到生产中。
3、充分的透明度和协作性: AI模型的主要关注点是,它们是在少数几家私营公司保密的厚墙下开发的,促进空间研究和协作开放性的组织,前提是您拥有的可用数据越多,他们所建立的模型就越公平,越强大。

重要的是,毫无疑问,人工智能将成为我们未来的一部分,因此我们必须在道德,数据治理和透明性的坚实框架下,担负起恐惧并引导其负责任地进行发展.





Prev article

怎样利用机器学习灵活的使用大数据获取见解?

Next article

在我们信任的自动化中:如何构建可解释的AI模型?

数据分析师

报名咨询

数据分析师

报名缴费

数据分析师

客服中心

数据分析师

课程服务

数据分析师

认证服务