结论:在空间和时间上协调价值观

Dive into business data optimization and best practices.
Post Reply
jrineakter
Posts: 825
Joined: Thu Jan 02, 2025 7:15 am

结论:在空间和时间上协调价值观

Post by jrineakter »

我们如何才能修剪这些信息丛林?我们最近看到大量指导方针、章程和准则,鼓励企业和政府使用合乎道德的人工智能。然而,如果没有法律要求来补充透明度和合规性,即哪些人工智能系统可以部署,哪些不能部署,以及需要采取哪些保障措施,我们就不能认为这些就足以防止不当行为。

如何才能避免扼杀创新和实验呢?监管本身需要更具创新性,采用前瞻性监管方法,积极寻求适合未来市场的规则——这是 Nesta 活跃的领域。我上面提到的实验和证据原则也可以帮助确定人工智能创新可以保持无需许可的领域,以及应该受到更多控制的领域。

避免自动化困境
人工智能系统的复杂性也体现在我们作为消费者、用户和选民所做的决策中,从而产生了新的社会复杂性。

当我们选择基于极端人工智能系统的廉价或便捷产品时(如某些电子商务平台和叫车应用程序),这会对他们所在行业的工人产生间接影响,比如,这会让他们的工作变得更加不稳定或受到严格监控。当我们通过大规模部署人工智能系统来提高公共服务的效率时,成本的节省可能会以牺牲依赖这些服务的弱势群体的偏见和不公平决策为代价。极端人工智能的部署也可能带来更低的安全性、隐私风险和更高的市场集中度,但其中许多成本和风险是隐藏的或间接的,因此在我们的日常决策中更容易被忽视。

如果每个人都这样做,我们可能都会遭受比我们想 现金应用程序数据 要的更极端和更具破坏性的人工智能部署——我称之为自动化困境。更糟糕的是,既得利益者可能会试图操纵人工智能的部署,使其影响其他人而不影响他们,从而加剧不平等并造成不公正。最终,这可能会导致公众对被认为只会造福少数人的人工智能系统产生强烈反对。

要避免这种结果,就需要在人工智能部署方面团结一致:社会困境可以通过不同群体之间的协调和谈判以及习俗和制度的变化来解决。政府和民间社会组织应加强公众参与,以确定人工智能的目标、规则和优先事项。这种参与将有助于确定社会偏好的人工智能部署轨迹,这些轨迹将通过有针对性的研发计划进行探索,并编入法规中。确定最近《负责任的人工智能蒙特利尔宣言》原则的过程就是如何发挥作用的一个很好的例子。

团结还意味着确定那些因人工智能的到来而受到经济威胁的社会群体,并采取干预措施缓解他们的处境。为此,人们提出了许多策略,从教育和技能干预(如Nesta 的 READIE 团队正在探索的干预措施)到分散人工智能资本的所有权,以便广泛分享自动化带来的回报或基本收入。确定这些雄心勃勃的措施中的哪些更有效,并为这些措施的实施争取社会支持,将是未来的一个重要挑战。

保持人工智能科学、技术和市场轨迹的多元化
如果内燃机发展初期的工程师、企业家和规划人员知道我们今天所知道的污染、交通拥堵和气候变化问题,他们会怎么做?我们需要对时间复杂的人工智能系统和平台问自己类似的问题:我们今天对它们做出的选择会限制明天的选择,可能会将我们锁定在难以摆脱的部署轨迹上。

在科学技术方面,当前人工智能的进步依赖于数据量巨大、脆弱且不透明的深度学习方法:一旦输入足够的数据,这些系统会表现良好,但有时它们会以令人惊讶的方式崩溃(例如当它们看到“对抗性例子”时),而这些事故通常很难理解或预测。深度学习的批评者担心它会把我们带入技术死胡同,我们继续通过收集和标记更多数据、花费更多计算以及让我们的经济和社会适应其局限性来掩盖它的局限性,而不是探索可以为我们提供更健壮和可解释的人工智能系统的替代人工智能模型。当前重新设计城市以使其更适合不可靠的自动驾驶汽车的举措就是人类系统适应技术可供性的一个例子。但你想生活在一个看起来像机器人工厂的城市吗?

类似的路径依赖在由数字平台主导的市场中也存在,这些平台提供免费和个性化的服务和内容,以换取用于训练人工智能系统的个人数据。一旦它们占据主导地位,这些平台和商业模式就很难被取代,特别是一旦用户习惯了大规模个性化和(至少表面上)免费价格。

面对这些惰性和潜在的不可逆转性,多样性和多元化必不可少。在我们更多地了解复杂人工智能系统的影响、补充和风险之前,我们需要避免在科学、技术或商业领域由单一的“做人工智能”模式主导,这种模式可能会被证明是低劣的,但很难摆脱。这就需要积极扫描人工智能领域以识别蔓延的单一文化,并采取有针对性的干预措施以创造人工智能科学、技术和商业的多样性。Nesta 正与欧盟委员会合作,在DECODE和Engineroom等项目中实现这些目标,我们正在开发让个人控制自己数据的技术,并可能为更具包容性和以人为本的互联网提供基石。我们的创新映射方法还可用于非常详细和及时地监测人工智能研发轨迹的演变,有助于衡量该领域的多样性。

即使我们就整个社会想要实现的目标达成了一致,实时引导人工智能发展以应对这些经济复杂性也已经足够困难了。但我们在国家内部缺乏这种共识,更不用说国家之间了。只要看看正在展开的人工智能全球竞赛,不同的参与者——美国、中国、欧盟——都在冒着分裂、冲突、滥用和事故的风险推动他们对人工智能的愿景。这种人工智能民族主义因人们认为那些不自动化的国家和地区将会实现自动化而愈演愈烈——人工智能影响的地理环境也很复杂。
Post Reply