人工智能和法律、伦理和政策

莫拉r格罗斯曼。资料来源:滑铁卢大学 莫拉r格罗斯曼,法学博士,博士,Cheriton计算机科学学院研究教授,Osgoode Hall法学院兼职教授,向量人工智能研究所附属教师。她也是Maura Grossman Law的负责人,这是一家位于纽约州布法罗的eDiscovery法律和咨询公司...

人工智能和法律、伦理和政策

莫拉r格罗斯曼。资料来源:滑铁卢大学

莫拉r格罗斯曼,法学博士,博士,Cheriton计算机科学学院研究教授,Osgoode Hall法学院兼职教授,向量人工智能研究所附属教师。她也是Maura Grossman Law的负责人,这是一家位于纽约州布法罗的eDiscovery法律和咨询公司。

莫拉出名的是她在技术辅助审查方面的工作,这是一种有监督的机器学习方法,她和她的同事计算机科学教授戈登v科马克(Gordon V. Cormack)开发的,旨在加快高风险诉讼中的文件审查。她教授人工智能:法律、伦理和政策,这是滑铁卢大学计算机科学研究生和奥斯古德大学法律系高年级学生的课程,同时也是滑铁卢大学人工智能和数据科学硕士课程要求所有学生参加的伦理研讨会。

什么是人工智能?

人工智能是一个概括性术语,首次在1956年达特茅斯的一次会议上使用。人工智能指的是做智能事情的计算机执行思维、推理和预测等认知任务曾经被认为是人类的专属领域。它不是一种单一的技术或功能。

一般来说,人工智能涉及算法、机器学习和自然语言处理。所谓算法,我们只是指一套用来解决问题或执行任务的规则。

基本上有两种类型的人工智能,尽管有些人认为有三种。种是狭隘或薄弱的AI。这种人工智能在某些任务上至少和人类做得一样好,甚至更好。我们今天的人工智能技术可以比放射科医生更准确地读取核磁共振成像。在我的法律领域,我们有技术辅助的审查-人工智能,它可以比律师更快、更准确地找到法律证据。还有一些程序下国际象棋或AlphaGo比棋手还好。

第二种类型是一般或强AI;这种人工智能在大部分事情上都比人类做得好。这种人工智能还不存在,关于我们是否会有强大的人工智能存在着争论。第三种类型是超级智能人工智能,这在科幻小说中更常见。这种类型的人工智能将在许多领域远远超过人类所能做的任何事情。这显然是有争议的,尽管有些人将其视为即将到来的生存威胁。

人工智能在哪里被使用?

人工智能应用于无数领域。

在医疗保健领域,人工智能被用于在核磁共振扫描中检测肿瘤、诊断疾病和开出治疗处方。在教育领域,人工智能可以评估教师的表现。在交通运输方面,它被用于自动驾驶汽车、无人机和物流。在银行业,它是决定谁能得到抵押贷款。在金融领域,它被用来检测欺诈行为。执法部门使用人工智能进行面部识别。政府利用人工智能来确定利益。在法律上,人工智能可以用来检查当事人所写的案情摘要,并查找丢失的案件引证。

人工智能已经融入到社会结构中,它的用途几乎是无穷无尽的。

什么是道德人工智能?

人工智能是不道德的,就像螺丝刀或锤子是不道德的一样。人工智能可能被用于道德或不道德的方面。然而,人工智能的做法引发了几个伦理问题。

人工智能系统从过去的数据中学习,并将所学应用到新的数据中。如果用于训练算法的旧数据不具有代表性或具有系统性偏差,偏差就会出现。如果你在创建一个皮肤癌检测算法而大部分的训练数据都是从白人男性那里收集的,那么它就不能很好地预测黑人女性的皮肤癌。有偏差的数据导致有偏差的预测。

在算法中如何加权特征也会产生偏差。开发算法的开发者如何看待这个世界,以及这个人认为什么是重要的包括什么特征,排除什么特征可能会带来偏见。如何解释算法的输出也是有偏见的。

人工智能是如何受到监管的?

到目前为止,大多数法规都是通过“软法律”道德准则、原则和自愿标准。有成千上万的软法律,其中一些是由公司、行业团体和专业协会起草的。一般来说,有相当程度的共识会被认为是适当的或可接受的使用为例,人工智能不应该用于有害的方式延续偏见,AI应该有某种程度的透明度和explainability,它应该是有效的和可靠的目的。

迄今为止,制定一部管理人工智能的法律的全面努力是由欧盟在2021年4月提出的。这项欧盟立法草案是个全面的人工智能法规。它将人工智能划分为风险类别。人工智能的一些用途被认为是不可接受的高风险,它们往往是使用人工智能来操纵人的心理。另一个被禁止的用途是人工智能来确定社会分数,一个人会被监控,做了想做的事就会得到分数,做了不想做的事就会失去分数。第三种被禁止的用途是实时生物识别监视。

下一个类别是高风险的人工智能工具,比如用于医疗和自动驾驶汽车的工具。在使用这种人工智能之前,公司必须满足各种要求,进行风险评估,保存记录,等等。还有一些低风险的用途,比如回答问题的网络聊天机器人。这样的人工智能需要透明度和披露,但仅此而已。

人工智能能符合人类的价值观或社会期望吗?

如果你我不能就公平的定义达成一致,那就很难训练出公平的算法。你可能认为公平意味着算法应该平等对待每个人。我可能会认为,公平意味着实现公平或弥补过去的不平等。

我们的人类价值观、文化背景和社会期望往往不同,因此很难确定算法应该优化什么。我们只是还没有达成共识。

在机器学习中,我们通常不知道系统在做什么决定。AI的透明度和可解释性重要吗?

这是个很难回答的问题。关于透明度和可解释性,我们确实有话要说,但在许多情况下,如果AI经过充分测试,能够证明它符合预期目的,那么它就足够好了。如果医生开了一种药,药效的生化机制可能是未知的,但如果药物已经在临床试验中被证明是安全有效的,那就足够了。

另一种看待这个问题的方式是,如果我们选择使用不那么复杂的AI,我们可以更容易地解释,但它不如一个更不透明的算法准确或可靠,这是一个可以接受的权衡吗?为了更加透明和可解释,我们愿意放弃多少精确度?

这可能取决于算法的用途。如果它被用于判决人们,也许可解释的人工智能更重要。在其他领域,也许准确性是更重要的标准。这归结为价值判断。

温馨提示:

1.本站大部分内容均收集于网络!若内容若侵犯到您的权益,请联系站长处理!

2.如果您喜欢我们,可开通终身会员,享受全站资源免费下载!

3.本站所有内容只做学习和交流使用。 版权归原作者所有。

搜索