近日,工业和信息化部联合九个部门共同发布了《人工智能科技伦理审查与服务办法(试行)》。该办法明确要求,在开展人工智能相关科技活动时,必须将伦理规范贯穿于整个流程之中,确保技术发展与伦理道德同步推进。
根据新规,人工智能研发与应用需遵循七大核心伦理原则:以增进人类福祉为根本目标,尊重生命权利与人格尊严;坚持公平公正原则,避免算法歧视;通过合理控制风险保障技术安全;保持研发过程公开透明,主动接受社会监督;严格保护用户隐私与数据安全;确保技术系统可控可信,防范技术滥用风险。这些原则既体现了对技术创新的包容,也强化了对公共利益的守护。
办法特别强调,所有从事人工智能研发、应用及服务的单位和个人,必须严格遵守国家宪法、法律法规及相关规定。在开展科技活动前,需主动进行伦理审查,建立风险评估机制,对可能产生的伦理风险提前制定应对预案。监管部门将通过定期检查、随机抽查等方式,确保伦理规范落地实施。












