视觉和听觉更多的机器学习使你的数据分析生涯更加的有趣
来源:CPDA数据分析师网 / 作者:数据君 / 时间:2020-04-30
现代机器学习在诸如图像和声音理解等感知问题上取得了一些的成就
从这样的高维输入中提取相关信息通常也是科学数据理解中的挑战,小组在生物医学研究的细胞成像领域的一些令人振奋的结果,从人类临床成像中提取了令人惊讶的结果,并从听觉信号中得出了疾病分期。总的来说,这些都显示了在科学数据意义上进一步提供机器帮助的希望,还有许多令人兴奋的工作要做。
在医学中负责任地采用AI的关键
讨论技术的一个领域,不断在重要上升-可解释(或解释)AI,以及具体怎么它已成为中医采用AI的关键责任,使用AI来自动解释遗传数据,以便卫生组织可以将个性化护理扩展到更广泛的人群,从构思到成熟的解决方案的开发,并被领先的基因组学实验室使用,医疗保健中的算法:模型不正确的问题随着人们的生命和健康受到威胁,将算法纳入医疗保健的责任更大,研究人员证明了一种广泛用于识别和帮助具有复杂健康需求的患者的算法,算法建议可能会影响临床医生的决策。在临床算法研究中,识别癌症模型的准确性极大地影响了病理医生的表现。当模型准确时,病理学家也将更加准确。当模型不准确时,它们的性能就会下降。
我们如何负责任地在医疗保健中采用人工智能?
提高对AI模型推荐的信心并提高其偏见的一种方法是合并可解释的AI模型,这样的模型试图回答“为什么模型会预测这一问题?”以用户清楚理解的方式进行,一项要求是透明性,特别是要求具有可解释性的AI系统,并使人们意识到它们正在与AI交互,具有所有功能和局限性,信任并有效管理其人工智能机器合作伙伴,目地是使人类易于理解驱动AI结果的关键功能,以及检测错误或偏差。
我们如何设计好的可解释的AI模型?
可解释的模型通常是辅助模型,试图阐明原始模型的特征。大部分工作都围绕着对较复杂的原始模型进行近似模型的改造。但这是否满足了用户对证明和保证的需求?当研究人员根据有用的解释转向社会科学的研究时,我们会得出更细微的理解。在社会科学中,解释被描述为是对比性的,用户应理解为什么选择X而不选择Y。人类不需要完整的解释,他们善于选择支持决策的事实。概率与因果关系无关紧要,与因果解释相伴的统计表示本身不会令人满意。,解释是社会性的,代表知识的转移。
从社会科学的角度来看是否可以重新定义我们对医疗从业人员的要求?
如今所有模型都旨在与循环中的人员配合使用,我们如何才能地转移知识,解释因果关系而不仅仅是概率,并专注于决策所需的关键事实?也许的模型是将因果决策因素叠加在原始模型的建议上的模型,从而使我们能够应用前模型和后模型来实现目标。
无论我们的具体实施方式如何都应使用可解释的模型
以使医疗专业人员更容易在临床工作流程中利用AI,在2019年对病理学家的调查中,尽管对在工作流程中采用该技术的总体积极态度,仍有75%的人担心AI错误。可解释或可解释的系统将增加临床医生对模型提供的结果的信任,并为他们提供评估模型输出的工具,可解释的模型也促进了人机协作。它们使AI执行更适合的任务,例如收集和构建信息或从大量数据中提取模式。同时,人类可以专注于从收集的数据中提取意义,我们应该有一种评估可解释模型的方法,以确保它们对临床医生有用,我们还要增加一点,解释应该是可行的,以便医学专家对算法输出及其随附的解释进行复习,从而可以清晰明确地(有望改善)进行临床决策。