插图由Stephanie Dalton Cowan绘制

人工智能的未来

人工智能即将改变社会. 我们如何安全地开发它?

2022年,OpenAI公司发布了一个名为ChatGPT的人工智能程序, 它代表了我们如何使用技术的巨大变化. 人们可以突然和电脑对话,感觉就像和另一个人说话一样, 但这仅仅是个开始. 人工智能有望颠覆一切,从我们如何编写编程代码和作曲,到我们如何诊断病人和设计新的药物疗法.

可能性是无限的. 自30年前互联网实现大规模应用以来,人工智能将以前所未有的规模改变人类. 就像之前的互联网热潮一样,人工智能的淘金热令人目不暇接. 科技公司竞相为我们提供人工智能服务, 微软和Alphabet等大公司吞并了小公司. 华尔街投资者也加入了这股热潮. 例如, 英伟达, 该公司生产了大约80%用于人工智能的高性能计算机芯片, 今年3月市值达到2万亿美元, 使其成为全球第三大最有价值的公司.

但在所有这些令人兴奋的事情中,我们如何确保人工智能以一种负责任的方式发展? 人工智能会威胁到我们的工作吗, 我们富有创造力的自我, 甚至是我们的存在? 我们向电子游戏软件计算机科学系的四位成员——威廉·格里菲斯教授提出了这些问题, 艾米丽Prud 'hommeaux, 乔治·莫赫勒, 和布莱恩·史密斯,以及爱丁堡大学科技未来中心的吉娜·赫尔弗里奇, 电子游戏正规平台人工智能和其他技术的伦理影响.

为了清晰和篇幅的考虑,这段对话经过了轻微的编辑. 赫尔弗里希单独接受了采访,她的评论也被加进了谈话中.  


我们经常听到人工智能的奇迹,但我们应该问什么问题呢? 

威廉·格里菲思: 如果你回想一下社交媒体,它实际上改变了我们运作和互动的方式. 我想知道人工智能将如何扩展或走向不同的方向. 我们应该从许多伦理角度来看待人工智能, 比如正义, 责任, 责任, 等等....... 我的感觉是,这就是思考我们面临的大多数挑战的方式, 不仅在技术上,而且在社会和环境上.

艾米丽Prud 'hommeaux: 其中一个大问题将是真实性. 当媒体, 图片, 语言, 或者通过人工智能创造语言, 它已经到了这样一个地步:它是如此之好,以至于很难知道它是由人类还是人工智能生产的. 这是人们目前正在努力解决的一件大事——如何教育人们,让他们能够分辨出其中的区别, 因为它会变得越来越难. 

乔治·莫赫勒: 我觉得有趣的问题是, 这是一个直接存在的威胁,还是有点言过其实? 如果你看看发明这项技术的专家,他们实际上是分裂的. 他们中的一些人认为,在20年内,我们可以拥有比人类更聪明的人工智能. 另一部分人工智能电子游戏正规平台人员认为,我们离那还很远. 

布莱恩 史密斯: 首先出现的问题之一是人们如何处理这些事情的道德规范. 学生们将如何, 学校, 老师, 教员们要处理的是一台机器,它基本上可以帮你做作业? 问题是,人们会说,“人工智能是一个新事物,我们会害怕它.“但现实是,真正的问题是学术诚信. 因此,在我们开始考虑技术方面的问题之前,必须建立一种围绕学术诚信的价值体系.

Prud 'hommeaux: 我认为大多数学生都在使用ChatGPT来指导他们. 我不认为有多少学生会从ChatGPT中大量复制文本,并将其弹出到Word文档中,然后提交给他们的班级. 但是我注意到,我可以分辨出什么东西是由ChatGPT编写的,因为它在某种程度上听起来真的很愚蠢. 听起来像是一群营销主管写的.

那么,在ChatGPT时代,我们如何促进学术诚信呢? 

Gina helrich ' 03: 我不知道教授和大学领导是否有一个很好的答案. 一切都还很新鲜. 人们在使用这些工具的方式上仍然具有非凡的创造力. 但是,创建这些工具的公司一开始并没有清晰的愿景,知道它们应该用来做什么. 我不认为假设所有学生都想在论文中作弊是有帮助的. 更有趣的是看看学生选择作弊或抄袭的原因, 而不是把AI单独挑出来,认为它很特别. 话虽如此, 有一种感觉就是要走在技术的前沿, 大学应该欢迎使用生成式人工智能(可以在人的指导下创作原创文章), 视频, 图片, 等.]. 然而,, 课堂上发生的许多事情仍然取决于个别教师, 有些老师会说, “是啊, 去城里, 使用生成式人工智能. 我们不介意.其他人会说:“绝对不行。.“从学生的角度来看,对这些工具有着截然相反的期望和体验,这一定很有趣, 我真的不知道他们是如何应对的. 我的感觉是,大学领导们真的在争先恐后地试图弄清楚他们应该在这些工具上采取什么立场.

规则

 

图片插图威廉·格里菲斯


威廉·格里菲思
BC大学计算机科学系实践副教授

Griffith之前是BC计算中心的副主任,电子游戏正规平台技术的伦理和谨慎使用. 他是有执照的临床心理学家.

规则

 

人工智能还将如何影响我们孩子的发展? 

格里菲思: 这项技术将如何影响孩子的认知能力, 在情感上, 在他们的教育方面将是一个严重的问题. 你可以创造个性, 你可以用比以前更现实的方式来发明东西, 孩子们会想出如何使用这项技术. 我非常关心孩子们的发展和这个软件的存在.

当然,不仅仅是高等教育. 美国企业, 华尔街, 军事, 许多其他行业也在努力解决这些问题. 政府是否应该介入并监管人工智能?

莫赫勒: 人工智能有很多不同的类型,每种类型都有自己的问题和监管途径. 例如, 像ChatGPT或Llama这样的聊天机器人, 问题更多的是围绕版权问题——他们是通过使用别人的数据来训练的——以及该怎么做. 有些人说,“哦,我们应该停止训练这些模型.“这对我来说没有意义. 人们和科学家能够调查这些模型,然后找出版权问题,这是有意义的. 在光谱的另一端,你有像军事用途的自主武器. 这不会受到美国的监管——需要一些国际条约. 还有一些技术,比如自动驾驶汽车或医疗 需要某种监管.

Prud 'hommeaux: 我最近在为我们的主要专业会议审阅论文, 我读到一些人提议用聊天机器人进行心理健康治疗. 对于每一篇论文, 有个评论者说, “我认为这不一定是人工智能的道德应用, 用机器代替人类来帮助一个心理健康状况紧急的弱势群体.“我可以想象,这是政府相对容易监管的事情. 我现在在教刑事司法课, 我们正在电子游戏正规平台的一个问题是如何处理累犯, 你怎么预测呢? 当一个人出狱后,他能更好地预测一个人是否会再次犯罪吗? 电脑能做得更好吗? 我可以想象,这也会受到监管. 但他们想要监管的一些事情更复杂,比如, 如果有人要求制造炸弹,你如何强迫AI不告诉他们? 你可以欺骗AI为你做很多事情,它会给你带来好处, 准确的信息. 一家公司应该如何防止这些事情在他们的软件中发生呢? 我认为很多这样的监管将很难实施.

海尔瑞迟: 从历史上看, 我们已经看到了各种各样的创新, 政府需要一段时间才能赶上进度. 但最终, 我认为公众确实希望政府能够介入,确保向公众宣传和出售的东西不会有严重的危害. 我认为我们现在已经到了这样的地步,世界各国政府都在追赶过去几年围绕人工智能的巨大变化,并开始制定一些急需的法规. 我确信这最终将是一个迭代过程. 也许我们会对规则进行第一次迭代,我们会找到它起作用的方式和可能不起作用的方式,然后回来做出改变,使它更好地发挥作用. 

规则

 

图片插图吉娜·赫尔弗里奇


吉娜·赫尔弗里奇,03年
爱丁堡大学未来技术电子游戏正规平台中心经理

赫尔弗里奇的工作重点是人工智能发展的伦理影响, 机器学习, 以及其他数据驱动的技术. 一个博士学位, 她还是爱丁堡大学人工智能和数据伦理咨询委员会的副主席.

规则

 

据报道,人工智能已被用于选择无人机攻击的目标. 如果人工智能在战时犯错,谁来承担责任?

海尔瑞迟: 在思考道德人工智能时,谁该负责是一个重要的话题. 电子游戏正规平台者玛德琳·克莱尔·埃利什提出了道德崩溃地带的概念. 汽车上的折叠区是用来承受碰撞时的冲击的, 从而保护车内的人和乘客. 道德崩溃区本质上是最接近人类的人,无论发生什么事,都可以归咎于电脑. 符合汽车的主题, 想想一辆像特斯拉这样的汽车,它在发生碰撞时处于自动驾驶模式. 我们说这辆自动驾驶汽车撞车了. 我们应该追究谁的责任? 那个把车调到自动驾驶模式的人? 这是我们能指派给的最接近的人, 所以他们处于道德崩溃区. 这绝对是值得关注的事情, 因为这可以让一些正在推动人工智能工具的公司摆脱困境. 同时, 在使用科技公司开发的人工智能工具的组织中,也有决策者. 这些人也需要对任何错误负责. 如果我们说的是军事用途, 例如, 军队里肯定有人打电话来说, “我们将把这些定位决策委托给一台机器.“如果机器出错了, 谁决定让机器来做这些选择? 围绕人工智能工具的集体责任和责任问题是我们必须牢记的, 因为它们太复杂了, 因为它们的开发和部署过程经历了很多, 人多好.

格里菲思: 在战争中使用人工智能是复杂的, 多层次的伦理和政治影响, 从国际比赛到个人比赛. 人工智能什么时候可以自主决策,如果有的话,什么时候需要人工干预?  这也提出了一个问题:机器可以被编程为具有人类道德决策能力吗? 决策者面临的挑战是制定经过深思熟虑的法律和道德标准,这些标准将在个别国家和国际范围内适用. 人们会说:“好吧,是软件出了问题,你不能去找程序员的麻烦.“我认为其中一些程序员应该成为有执照的工程师, 从某种意义上说,如果塔潘泽大桥不是由有执照的工程师建造的,你就不会上它. 当涉及到许可时,软件行业需要像工程专业一样思考自己. 这也许是责任的一部分, 但也有一些著名的医疗设备致死的案例,因为使用它的医院没有进行足够的调查, 使用它的人没有受过足够的训练, 设计它的人使用的是软件而不是硬件. 在这种情况下,你无法最终分配责任,因为游戏中有6名玩家. 所以我不确定我们如何规范它. 这是个难题. 

规则

 

乔治·莫赫勒的图片插图


乔治·莫赫勒
丹尼尔·J. 菲茨杰拉德教授和BC计算机科学系系主任

Mohler的电子游戏正规平台重点是解决空间问题的统计和深度学习方法, 城市, 以及网络数据科学.

规则

 

但对于我们人类来说,把决策权交给机器意味着什么?

格里菲思: 当然,它会让我们在精神上和其他方面变得更懒.

史密斯: 有了这些工具,你去查询一些东西,它就会告诉你一些东西. 而, 就在不久前, 我们就得去谷歌找链接, 然后我们需要做一些心理处理来理解搜索结果. 现在你甚至不需要去想它. 环境变得非常重要. 在什么情况下使用这些东西来获得一些效率是有意义的, 为了加快速度, 希望不要剥夺我们自己的能力? 然后, 当然, 它也提出了一个问题:什么是需要知道的,就像搜索引擎提出什么是需要知道的一样. 我记得有人说,“哦,孩子们已经不知道内战的日期了.“谁在乎呢?? 真正重要的是,为什么会有内战?

格里菲思: 瑞士心理学家让·皮亚杰说,你需要挑战来成长和发展你的认知能力. 如果这些技术让一切变得更简单,你如何变得更聪明?

制定负责任的人工智能发展国际标准存在哪些障碍?

海尔瑞迟: 这些努力已经在进行中. 在各种不同的组织中,围绕负责任地使用人工智能,已经制定了许多不同的原则. 但围绕人工智能的竞争存在地缘政治斗争,就像美国与中国一样. 这种紧张关系导致无法达成更统一的国际协议. 我的同事们指出,我们已经完成了其他所有人都认为非常重要的事情. 例如,有关于飞机的国际标准. 所以我们很有可能会在人工智能方面看到类似的情况. 如果我们不这样做, 那么我们就可以预期在世界不同地区会有不同的人工智能制度. 中国对人工智能的期望可能与美国或欧洲的期望有所不同.

随着人工智能使生成看起来真实的图像变得越来越容易, 我们怎么能相信我们在网上找到的任何东西? 我们正在进入一个前所未有的错误信息时代吗?

Prud 'hommeaux: 其中一个挑战是,对于大多数人来说,很难区分由计算机创造的东西和由人创造的东西. 科技公司总是在竞争谁能在人工智能领域领先谁, 但我觉得他们可以扮演另一个角色, 那就是开发技术来帮助识别由计算机创造的东西然后教育人们. 也许公司更有责任说:“这是一张图片. 我们认为这不是真实的图像. 我们认为这个形象是人为创造的.”

格里菲思: 这让我想到抚养那些受这种技术影响的孩子, 以及我们将如何教他们做出这些决定,并处理这些我们留给他们的创造, 我不确定教育系统是否能做到这一点.

海尔瑞迟: 我认为数字素养是解决方案的一部分,但它本身肯定是不够的. 人们正在努力寻找新的方法来验证图像的来源. 但人类只能如此警惕. 我真正上当的第一张深度假照片是教皇身穿巴黎世家(Balenciaga)大衣的照片. 我只是想, 哦,很酷的夹克,对你有好处. 但这张照片是假的. 像这样的事情愚弄像我这样的人的原因是因为我们没有理由警惕或怀疑教皇穿着夹克的照片实际上是不准确的. 所以我认为这是恶意行为者真正具有优势的地方, 因为人类没有足够的毅力对我们遇到的每一件事都保持警惕, “这是真的吗?? 我看到的是深度假的吗?“这让人筋疲力尽。. 你不能每天每时每刻都这样质疑你的现实. 这就污染了我们的信息环境, 因为我们可能会陷入这样的境地我们所依赖的数字基础设施, 比如互联网搜索, 被人工智能生成的内容所污染. 我们不再知道如何甄别真假, 因为我们已经习惯了在谷歌上搜索有用的信息. 但是,当你去谷歌,发现排名前十的结果都是人工智能生成的废话时,会发生什么?

规则

 

图片说明:Emily Prud 'hommeaux


艾米丽Prud 'hommeaux
BC省计算机科学系Gianinno家族一百五十周年助理教授

Prud 'hommeaux的电子游戏正规平台领域包括自然语言处理和将计算技术应用于健康和无障碍问题的方法, 特别是在语言和语言学领域.

规则

 

复制人声的技术精确得惊人. 我们读到过人们被骗子模仿爱人的声音欺骗的故事.

Prud 'hommeaux: 生成语音的技术实际上非常好. 它曾经非常可怕,你可以立即分辨出是不是合成的声音. 现在它变得更加困难了. 我都不知道你怎么能阻止这种骗局的发生, 但不幸的是, 这种骗局正在发生. 即使没有人工智能的帮助, 人们一直在通过电话、互联网和短信被骗,把钱寄到他们不应该寄钱的地方. 我认识一些受过教育的人,他们成了这类骗局的受害者. 所以我觉得现在模仿别人的声音确实很容易, 可能只有很小比例的骗局实际上依赖于这种技术.

海尔瑞迟: 我们可能会认为人工模仿人类的声音太危险了, 如果太危险, 不谈了. 是的,也许在很多方面它都是有用的. 也许它可以给那些依赖技术来表达自己声音的人一个更有力的声音, 比如那些不能再用声带说话的人. 但也许我们认为,合成声音带来的所有欺诈和骗局的危害超过了好处. 这些问题如何在监管层面得到解决还有待观察, 但权衡利弊将是做出这些决定的重要组成部分.

人工智能已经允许工人将一些任务卸载给计算机. 是否存在这样一种风险,即这项技术可以改进到完全不需要人类工作的程度?

Prud 'hommeaux: 今年早些时候的演员和编剧罢工很有意思. 这很大程度上与人工智能有关. 工作室会用ChatGPT之类的东西取代编剧吗? 人工智能能创造出演员从未表演过的镜头吗? 我认为他们真的是走在了潮流的前面,因为他们出手了, 因为他们认识到了自动化, 人工智能, 机器学习可能会取代它们. 我认为这不会很快发生. 我们可能很快就会碰到一些自然的人工智能极限. 但我确实认为,在其他领域也有同样的潜力. 计算机程序员总是担心他们会被ChatGPT或微软的Copilot或其他什么东西取代. 我当然可以看到这种可能性, 但是现在, 如果你要求ChatGPT做很多编码的事情, 这是对的, 但它会编造一些东西,把一些东西搞错. 你肯定还是需要一个人来让它工作,并把它集成到系统中. 所以我能看到它的影响,但我不认为这是现在正在发生的事情.

海尔瑞迟: 到目前为止,我们所看到的是,任何试图用人工智能大规模取代人类的公司后来都不得不放弃. AI在各种情况下的表现都不符合规范. 许多工作场所的担忧都与用生成式人工智能工具取代员工有关, 这些工具没有真假的概念. 他们根本不知道什么是对现实世界的精确. 因此,有一种内在的风险是,生成式人工智能工具会犯一些有意义的错误,而这些错误会反过来伤害雇用它们的公司. 很多这样的工具还没有为黄金时段做好准备, 这种炒作可能过早地让一些公司相信他们已经准备好了——而这些公司正在为这些选择付出代价. 人们习惯做的一些工作将移交给人工智能工具, 而是在人工智能完全自主地取代人类方面, 在我看来,这在中期的任何地方都不可行, 因为这是一个未解决的问题.

规则

 

图片说明:布莱恩·史密斯


布莱恩•史密斯
尊敬的大卫·S. 他是林奇教育与人类发展学院尼尔森主席兼电子游戏正规平台副院长

史密斯电子游戏正规平台基于计算机的学习环境的设计, 人机交互, 以及计算机科学教育. 他还和计算机科学系有个约会.

规则

 

事实证明,人类的偏见会影响从刑事司法系统的结果到美国企业的招聘决策等方方面面. 因为人类在设计人工智能, 我们如何防止人类的偏见进入这些新技术?

格里菲思: 我认为我们永远无法摆脱偏见. 它总是存在的,因为文化有不同的价值观. 偏见并不意味着消极. 但如果它变成了一种偏见,那我就会开始思考我们该如何治理它. 有偏见的数据最初是如何进入这些文件的? 人们一定问过问题,而这些问题一开始是有偏见的. 他们价值负载. 看看那些导致制定有偏见的法律的偏见, 做出有偏见的雇佣决定, 以此类推.

Prud 'hommeaux: 这并不是说算法有偏见,也不是说制作算法的人有偏见什么的. 而是他们所依据的数据是有偏见的. 这可能是世界上存在的一种偏见, 或者这可能是创造内容的个人的偏见. 实际上,我让我的学生要求ChatGPT为一位计算机科学教授创建一份简历, 就像, “He 这样做. He 这样做. He 有这里的学位吗.当我让他们为一位英语教授做这件事时,得到的回答是“她”.对于一个护理学教授来说,是“她”.“对于一个工程学教授来说,是”他说.“也许ChatGPT是这样的, 世界就是这样,所以我要预测最可能发生的事情. 我认为数据中存在很多偏见,试图消除这种偏见是很复杂的. 很多偏见并不一定是人们被偏见了. 他们中的许多人只是反映了世界在某些时候的方式.

莫赫勒: 用这些模型来做决定, 我们对不同群体的个体评估它们的准确性. 我们可以明确模型的弱点. 然后,因为我们可以检查模型,我们可以试着调整模型来减少偏差. 计算机科学有一个完整的分支领域,试图解决算法公平和偏见的问题. 有人在努力解决这些问题. 如果一个算法或一个人要做出一个关键的决定,可能两者都有偏见. 有没有可能在循环中加入一个算法,我们可以让这个决定不那么有偏见? 我认为答案是肯定的.

格里菲思: 为什么这些程序必须以我们的方式思考? 如果他们的想法不同,那是积极的吗? 他们能调查我们的偏见吗?

海尔瑞迟: 这是一个巨大的困难. 现在,很多人工智能训练数据来自互联网. 这就引出了一个问题:谁在互联网上最具代表性? 例如,英语的使用比例就被大大高估了. 所以尽管拥有一个多元化的开发团队对于改善AI工具的偏见问题非常有帮助, 这还远远不够, 因为人工智能工具所基于的数据显示出社会偏见. 被数字排除在外的人不是人工智能工具训练数据的一部分. 这是一个很难的问题.

似乎每天我们都能读到一家科技巨头收购一家新的人工智能公司的新闻. 这么少的公司对这项新技术有这么大的控制权,这是个问题吗?

Prud 'hommeaux: 他们才是真正有能力建立这些模型的人. 像ChatGPT或DALL-E-a这样的东西,大学无法真正做到这一点. 我们没有这样的资源. 唯一能做到这一点的人就是这些大块头, 大公司拥有大量的资金和大量的计算资源. So, 直到我们弄清楚如何让人工智能需要更少的资源, 肯定是他们干的. 美国国家科学基金会(National Science Foundation)正在努力创建某种国家人工智能电子游戏正规平台资源,为美国的电子游戏正规平台人员汇集计算资源,使他们能够拥有与这些公司类似的资源.

史密斯: 我想问题是, 即使有国家科学基金会的预算, 你能制造出像谷歌或英伟达这样的东西吗? 计算能力是如此之大. 我和另一组正在考虑是否可以集中电子游戏正规平台的大学进行了交谈:“我们不想落在后面. 我们如何联合起来建立我们自己的基础设施来创建由大学主导的模式?我看着他们,心想:“嗯,这是一个精英团体。. 所以如果你们这么做,你们不会有效地解决同样的问题吗? 这将是大学精英,而不是企业精英.“问题就在这里. 我说,“我告诉你,你为什么不增加你的团队? 一些历史上的黑人学院和大学,一些少数族裔服务机构?“这是一个面板. 所以他们说,好吧,我相信我们没时间了.”

一些著名的人工智能电子游戏正规平台人员签署了一份声明,警告称人工智能可能导致人类灭绝, 科幻小说经常描绘人工智能获得某种感知能力,从而导致竞争意识的发展. 这些场景有多可信?

莫赫勒: 人们应该思考人工智能技术在哪些方面做得好,在哪些方面做得不好. 人工智能可以写出一篇似是而非的大学论文. 但我们没有人工智能可以打扫你的房子. 我认为这里的区别很重要, 因为通常我们会认为, “嗯, 写大学论文比收拾厨房里的盘子要难得多.“但事实上,我们离拥有任何可以为我们做到这一点的技术还很遥远. ChatGPT不能计划. 它不会以你想要的方式推理. 它只是测量文本的相关性,然后输入缺失的文本. 我认为,要让电影级别的人工智能出现在我们的生活中,还需要很多步骤, 目前还不清楚如何才能达到这样的技术水平.

史密斯: 有人问我:“那HAL呢 2001:太空漫游 像这样的电影? 我说,“所以这是合理的,因为它发生在电影中? 你能给我举个非虚构的例子吗关于机器试图杀死人类?那个人很生气,说:“这一点都不好笑。.我说:“不,它是。. 因为你不能给我一个这样的例子.” Mr. 咖啡从来没有决定过某一天, 就是这样. 我们要拿下他们. Alexa并没有对房间里的人说, 绊倒他们,把他们打晕,让他们脑震荡. 这不会发生. 对我来说,人们会想象这是一件很奇怪的事情, “Oh, 这是世界末日,“当世界上正在发生的事情,我们实际上可以关注,需要关注, 而不是想象Roomba真的疯了然后走, 就像, 就是这样 ... ◽