Wysłany: Sob Kwi 27, 2024 11:29 Temat postu: 机器学习绩
今天,我们介绍机器学习性能的健康公平评估 (HEAL),这是一种新颖的评估框架,旨在定量评估基于 ML 的健康工具的性能是否公平。我们提出了一个 4 步流程,用于估计 ML 工具对于平均健康状况比其他群体更差的群体表现更好的可能性,目的是提供改进信息,使健康 AI 技术更加公平。 健康公平是世界范围内的一个主要社会问题,造成差异的原因有很多。这些来源包括获得医疗保健的限制、临床治疗的差异,甚至诊断技术的根本差异。例如,在皮肤科中,少数族裔、社会经济地位较低的人或医疗保健机会有限的个人等人群的皮肤癌结果更差。虽然机器学习 (ML) 和人工智能 (AI) 的最新进展有望帮助改善医疗保健,但从研究到临床的转变必须伴随着仔细了解它们是否以及如何影响健康公平。 公共卫生组织将健康公平定义为每个人尽可能健康的机会公平。重要的是,公平可能不同于平等。
例如,在改善健康方面存在更大障碍的人可能需要更多或不同的努力才能体验这个公平的机会。同样,公平并不是医疗保健人工智能文献中定义的公平。尽管人工智能公平性通常力 科威特电报吗数据库 求人工智能技术在不同患者群体中具有平等的性能,但这并不以优先考虑现有健康差异的性能为中心。 HEAL-1-健康公平 健康公平考虑。如果一项干预措施(例如基于机器学习的工具,以深蓝色表示)有助于减少现有的健康结果差异(以浅蓝色表示),则可以促进健康公平。上发表的《机器学习性能健康公平评估 (HEAL):框架和皮肤病学 AI 模型案例研究》中,我们提出了一种定量评估基于 ML 的健康技术是否公平运行的方法。换句话说,机器学习模型对于那些在模型要解决的情况下健康状况最差的人来说表现良好吗?这一目标基于以下原则:健康公平应优先考虑并衡量模型在不同健康结果方面的表现,这可能是由于包括结构性不平等在内的许多因素(例如人口、社会、文化、政治、经济、环境和地理)。
健康公平框架步流程来估计基于 ML 的健康技术公平执行的可能性: (1) 确定与健康不平等相关的因素并定义工具性能指标, (2) 识别并量化先前存在的健康差异, (3) 测量每个子群体的工具性能, (4) 衡量该工具根据健康差异优先考虑绩效的可能性。 最后一步的输出称为 HEAL 指标,它量化了 ML 模型的性能与健康差异的反相关程度。换句话说,该模型对于健康状况较差的人群是否表现更好? 这个 4 步流程旨在提供改进信息,使 ML 模型性能更加公平,并定期进行迭代和重新评估。例如,步骤(2)中健康结果数据的可用性可以告知步骤(1)中人口因素和括号的选择,并且该框架可以再次应用新的数据集、模型和人群。 HEAL-2-框架-英雄 机器学习绩效的健康公平评估框架 (HEAL)。我们的指导原则是避免加剧健康不平等,这些步骤有助于我们识别差异并评估不公平的模型表现,从而为所有人带来更好的结果。 通过这项工作,我们朝着鼓励对人工智能技术的健康公平考虑因素进行明确评估迈出了一步,并鼓励在模型开发过程中优先考虑努力,以减少暴露于可能导致不同结果的结构性不平等的亚人群的健康不平等。我们应该注意到,目前的框架并未对因果关系进行建模,因此无法量化新技术对减少健康结果差异的实际影响。 _________________ 中东手机号码清单
Wysłany: Sob Kwi 27, 2024 12:58 Temat postu: Re: 机器学习 
ditikhatun11 napisał:
今天,我们介绍机器学习性能的健康公平评估 (HEAL),这是一种新颖的评估框架,旨在定量评估基于 ML 的健康工具的性能是否公平。我们提出了一个 4 步流程,用于估计 ML 工具对于平均健康状况比其他群体更差的群体表现更好的可能性,目的是提供改进信息,使健康 AI 技术更加公平。 健康公平是世界范围内的一个主要社会问题,造成差异的原因有很多。这些来源包括获得医疗保健的限制、临床治疗的差异,甚至诊断技术的根本差异。例如,在皮肤科中,少数族裔、社会经济地位较低的人或医疗保健机会有限的个人等人群的皮肤癌结果更差。虽然机器学习 (ML) 和人工智能 (AI) 的最新进展有望帮助改善医疗保健,但从研究到临床的转变必须伴随着仔细了解它们是否以及如何影响健康公平。 公共卫生组织将健康公平定义为每个人尽可能健康的机会公平。重要的是,公平可能不同于平等。
例如,在改善健康方面存在更大障碍的人可能需要更多或不同的努力才能体验这个公平的机会。同样,公平并不是医疗保健人工智能文献中定义的公平。尽管人工智能公平性通常力 科威特电报吗数据库 求人工智能技术在不同患者群体中具有平等的性能,但这并不以优先考虑现有健康差异的性能为中心。 HEAL-1-健康公平 健康公平考虑。如果一项干预措施(例如基于机器学习的工具,以深蓝色表示)有助于减少现有的健康结果差异(以浅蓝色表示),则可以促进健康公平。上发表的《机器学习性能健康公平评估 (HEAL):框架和皮肤病学 AI 模型案例研究》中,我们提出了一种定量评估基于 ML 的健康技术是否公平运行的方法。换句话说,机器学习模型对于那些在模型要解决的情况下健康状况最差的人来说表现良好吗?这一目标基于以下原则:健康公平应优先考虑并衡量模型在不同健康结果方面的表现,这可能是由于包括结构性不平等在内的许多因素(例如人口、社会、文化、政治、经济、环境和地理)。
健康公平框架步流程来估计基于 ML 的健康技术公平执行的可能性: (1) 确定与健康不平等相关的因素并定义工具性能指标, (2) 识别并量化先前存在的健康差异, (3) 测量每个子群体的工具性能, (4) 衡量该工具根据健康差异优先考虑绩效的可能性。 最后一步的输出称为 HEAL 指标,它量化了 ML 模型的性能与健康差异的反相关程度。换句话说,该模型对于健康状况较差的人群是否表现更好? 这个 4 步流程旨在提供改进信息,使 ML 模型性能更加公平,并定期进行迭代和重新评估。例如,步骤(2)中健康结果数据的可用性可以告知步骤(1)中人口因素和括号的选择,并且该框架可以再次应用新的数据集、模型和人群。 HEAL-2-框架-英雄 机器学习绩效的健康公平评估框架 (HEAL)。我们的指导原则是避免加剧健康不平等,这些步骤有助于我们识别差异并评估不公平的模型表现,从而为所有人带来更好的结果。 通过这项工作,我们朝着鼓励对人工智能技术的健康公平考虑因素进行明确评估迈出了一步,并鼓励在模型开发过程中优先考虑努力,以减少暴露于可能导致不同结果的结构性不平等的亚人群的健康不平等。我们应该注意到,目前的框架并未对因果关系进行建模,因此无法量化新技术对减少健康结果差异的实际影响。
Nie możesz pisać nowych tematów Nie możesz odpowiadać w tematach Nie możesz zmieniać swoich postów Nie możesz usuwać swoich postów Nie możesz głosować w ankietach