在AI时代,保护人格权益需要从多个方面着手,以下是一些常见的保护措施:完善法律法规 明确法律地位:对于目前的弱人工智能,明确其法律客体地位;同时,从长远考虑,为未来强人工智能有条件地获得法律主体资格做好铺垫,以解决人格权侵权纠纷中的责任认定与分配问题。 细化责任主体:进一步细化人工智能相关法规中多元主体的分类,明确各个主体在人格权侵权纠纷中应履行的注意义务和需承担的法律责任,织密人格权保护网。加强技术监管 规范开发应用:要求技术开发利用者在收集或使用他人肖像、声音等个人信息时,依法取得他人同意。遵循相关法律法规,不得危害人体健康,不得违背伦理道德,不得损害公共利益。 建立标识制度:如《人工智能生成合成内容标识办法》要求对AI生成的涉及人脸、人声等容易对公众进行欺诈、误导的内容打上标识,平台也应对上传的疑似AI内容进行筛选和标示,让公众能够识别,避免“人格误导”。 强化数据保护:依据《个人信息保护法》,对AI语音克隆训练数据等以是否具有“可识别性”为标准进行区分保护,对于具“可识别性”的数据,信息处理者应取得被编辑个人的单独同意。提升维权意识 增强公众认知:社会公众要深刻认识到网络并非法外之地,侵犯他人隐私、辱骂网暴他人等行为均可能触犯法律。同时,要了解自身的人格权益以及AI可能带来的侵害风险,提高警惕。 注重自我保护:在网络分享个人信息时要把握好尺度,保护好社交账号的隐私权限。例如,不随意在不可信的平台或应用中提交个人敏感信息。 及时留存证据:对明显侵害自身权益的行为,要及时通过截屏、录屏、公证等方式留存证据,及时向平台投诉,要求删除,必要时果断报警或提起诉讼。加强行业自律 制定行业规范:AI相关行业应制定自律规范和标准,引导企业和从业者遵守道德和法律准则,推动行业健康发展。 开展培训教育:企业对内应定期开展专业的法律科普与培训,提高从业人员的法律意识与专业水平,从源头上减少侵权行为的发生。对外则应当加强关于人工智能技术的知识宣传,帮助公民理性审视人工智能。
|
|