
在讨论监管人工智能的必要性时,印度政府正寻求与组织和个人合作,开发本土工具,以减轻人工智能相关风险,确保公平和道德的做法。
印度人工智能(IndiaAI)是联邦电子和信息技术部(MeitY)下属的一个独立业务部门,该部门已邀请意向书(EOI)就开展“安全和可信”人工智能项目的合作提案进行合作,包括建立道德人工智能框架,创建人工智能风险评估和管理工具以及深度伪造检测工具。
这一决定紧随电子和信息技术联盟部长Ashwini Vaishnaw上周的声明,称政府“对引入新法律来监管人工智能的想法持开放态度”。
在议会正在进行的会议期间,部长在回答有关人工智能治理和发展的问题时说:“人工智能的道德问题是全球关注的问题,印度致力于通过激烈的辩论和负责任的创新来应对这些挑战。”
瓦什诺说:“社交媒体的问责制是世界各国社会面临的一个重大挑战,尤其是在假新闻和虚假叙事的背景下。”他补充说,建立社会和法律问责制需要达成重要共识。
“这些问题一方面是言论自由,另一方面是问责制和建立一个适当的真正的新闻网络。这些都是需要讨论的事情,如果众议院同意,如果整个社会达成共识,我们就可以提出新的法律。他补充道。
印度人工智能是联邦内阁3月份批准的10372亿卢比印度人工智能任务的执行机构,在提交的指导方针中指出,在任务中,“安全和信任”支柱强调需要一种平衡的、技术支持的、针对印度的人工智能治理方法。
它说:“这涉及到本土技术工具、指导方针、框架和标准的发展,这些都是根据印度独特的挑战和机遇,以及我们的社会、文化、语言和经济多样性制定的。”
为了实现这一目标,经济产业省将通过印度人工智能(IndiaAI)为这种“安全和可信”的人工智能项目提供支持,以减轻人工智能相关风险,确保公平、道德和稳健的人工智能实践。
申请人最好来自印度的学术机构、研发组织、政府机构、初创企业和其他私营部门公司,他们需要专注于创造可实施和可用的解决方案,促进不同领域人工智能的公正和道德发展。邀请的提案主题包括水印和标签、道德人工智能框架和深度伪造检测。
在水印和标签下,所提出的工具需要帮助区分人工智能生成的内容和非人工智能生成的内容,并在人工智能生成的内容中嵌入独特的、难以察觉的标记,以确保可追溯性和安全性。这些工具还可以包括防止产生有害和非法材料的功能,确保遵守道德标准和国家法律。
该文件指出,人工智能伦理框架提供了一种结构化的方法,以确保人工智能系统尊重人类的基本价值观,维护公平、透明和问责制,并避免偏见或歧视。“这些框架鼓励开发人员、研究人员和组织考虑他们的人工智能解决方案的更广泛的社会影响,并做出明智的决定,以尽量减少潜在的危害,”它说。
此外,可以提交应用程序来开发全面的人工智能风险评估和管理工具和框架。这些设计应用于识别、评估和减轻跨部门安全风险,确保一个领域的故障得到控制和管理,而不会影响相互关联的部门。
“随着人工智能系统成为关键基础设施和服务不可或缺的一部分,评估其承受高压力情景的能力至关重要,包括自然灾害、网络攻击、数据中断或操作故障,”该报告称,并补充说压力测试可以提供对系统弱点的可行见解,并确保为高风险情况做好准备。
它还呼吁提出深度伪造检测工具的建议。该报告称:“随着人工智能的进步,深度伪造的真实感越来越高,开发深度伪造检测方法以防范社会中潜在的错误信息和操纵是势在必行的。”
它还寻求将这些检测工具无缝集成到网络浏览器和社交媒体平台的方法,提供实时深度伪造检测。
(编辑:Radifah Kabir)











