2024-11-14 15:51来源:本站编辑
自从人工智能(AI)在过去两年中成为主流以来,它带来的许多风险已被广泛记录。一些人认为,这项新兴技术不仅助长了虚假色情的泛滥、威胁了个人隐私、加速了气候危机,甚至可能导致人类灭绝。
Tamika Worrell
麦考瑞大学批判性土著研究系高级讲师
但人们对人工智能的一些风险仍然知之甚少。其中包括对土著知识和社区的非常特殊的风险。
原因很简单:人工智能行业和政府在人工智能技术的开发和监管方面基本上忽视了土著人民。换句话说,人工智能的世界太白了。
如果人工智能开发者和政府真的想确保每个人都能分享人工智能的好处,他们就需要紧急解决这个问题。正如土著人和托雷斯海峡岛民喜欢说的那样,“没有我们,就没有我们”。
世界各地的土著人民并没有忽视人工智能。他们正在进行对话,进行研究,并分享他们对it和相关技术当前轨迹的担忧。
盗窃文化知识产权是一个有据可查的问题。例如,DeepAI等人工智能图像生成程序的用户可以在短短几秒钟内人工生成模仿本土风格和艺术故事的艺术品。
这表明使用人工智能的人很容易盗用文化知识。这些世代是从公开可用的图像的大型数据集中提取出来的,以创造新的东西。但他们忽略了我们艺术实践中的故事和文化知识。
人工智能技术也助长了关于土著人民的错误信息的传播。
互联网上已经充斥着关于原住民的错误信息。长期运营的Creative Spirits网站就是一个突出的例子,该网站由一名非土著居民维护。
生成式人工智能系统可能会使这个问题变得更糟。他们经常把我们与世界各地的其他土著人民混为一谈。他们也会利用不恰当的资源,包括Creative Spirits。
去年在澳大利亚举行的“向议会发声”公投中,“反对”运动者也使用了人工智能生成的土著人图像。这表明了人工智能在政治背景下的作用,以及它可能对我们造成的伤害。
另一个问题是土著人对人工智能缺乏了解。大约40%的澳大利亚原住民和托雷斯海峡岛民不知道什么是生成式人工智能。这反映出迫切需要向土著社区提供有关使用这项技术的资料和培训。
人们还关注人工智能在课堂上的使用及其对土著学生的具体影响。
夏威夷和萨摩亚学者杰森·刘易斯说:
实现这一目标的关键是“本地数据主权”的理念。这将意味着土著人民对自己的数据拥有主权,从他们拥有和控制对数据的访问的意义上说。
在澳大利亚,一个名为Maiam nayri Wingara的团体为数据主权和治理提供了重要的考虑和原则。它们肯定了土著居民从创建到基础设施管理和控制我们的数据生态系统的权利。
《关于缩小差距的国家协定》也肯定了土著控制和获取数据的重要性。
这一点在全球一级也得到了重申。2020年,一群来自世界各地的土著学者发表了一份立场文件,阐述了土著协议如何为合乎道德的人工智能提供信息。这种人工智能将把土著人民的知识集中起来。
积极的一步是,澳大利亚政府最近提出的一套人工智能护栏强调了土著数据主权的重要性。
例如,“护栏”包括需要确保额外的透明度,并在使用土著和托雷斯海峡岛民的数据或拥有的数据时做出额外的考虑,以“减轻现有社会不平等的延续”。
格蕾丝·狄龙(Grace Dillon)是一位来自北美原住民安西纳比族(Anishinaabe)的学者,她首先创造了“土著未来主义”一词。
Ambelin Kwaymullina是一位来自西澳大利亚Palyku民族的学者和未来主义实践者,他将其定义为:
Kwaymullina写道,这些愿景“就像土著人民自己一样多样化”。他们还通过“将现实理解为活生生的、相互关联的整体,人类只是众多生命中的一链,以及对时间的非线性看法”统一起来。
那么,人工智能技术如何通过本土的认知方式获得信息呢?
第一步是工业界让土著人民参与创造、维护和评估这些技术——而不是要求他们回顾性地批准已经完成的工作。
政府需要做的不仅仅是在政策文件中强调土著数据主权的重要性。它们需要与土著人民进行有意义的协商,以规范这些技术的使用。这次磋商必须旨在确保组织和日常用户之间的道德人工智能行为尊重土著世界观和现实。
人工智能开发者和政府喜欢声称,他们是认真对待确保人工智能技术造福全人类的。但是,除非他们开始让土著居民更多地参与开发和管理这项技术,否则他们的主张听起来是空洞的。
Tamika Worrell不为任何公司或组织工作、咨询、拥有股份或从任何公司或组织获得资金,这些公司或组织将从本文中受益,并且已披露除学术任命外没有任何相关关系。