世界卫生组织(WHO)近日发表了一份报告,强调了防范人工智能(AI)和自动化系统中潜在偏见的重要性。
这份报告指出,AI和自动化系统在医疗、社会、经 济等多个领域的应用日益广泛,但这些系统可能存在着无意识的偏见,从而影响其决策的公正性和公平性。例如,如果一个AI系统在识别疾病时,由于训练数据的偏差,可能对某些种族或性别的人群存在偏见。
报告呼吁,在开发和使用AI和自动化系统时,应确保其设计和使用符合人权原则,避免产生或加剧偏见。这包括确保数据的多样性和代表性,以及对AI系统的决策过程进行透明和可解释。
报告还建议,应建立监管机制,对AI和自动化系统的使用进行监督和评估,以确保其公正、公平和无偏见。同时,还应提供培训和教育,提高公众对AI和自动化系统潜在偏见的认识和理解。
世卫组织总干事谭德塞在报告发布时表示,AI和自动化系统有巨大的潜力,可以帮助我们解决一些全球性的挑战,如提高医疗质量、减少疾病传播等。但如果我们不能有效地防范其偏见,这些系统可能会加剧社会的不平等,甚至对人类的健康和福祉带来负面影响。
世卫组织的这份报告提醒我们,在享受AI和自动化系统带来的便利的同时,也要警惕其可能产生的偏见,并采取有效的措施来防范和解决这个问题。
|
|