AI竞赛与危险技术故事:探讨中国AI在全球的地位和军事应用
目录
- AI爆发的挑战与机遇 😮
- 中国AI在全球的地位 🌐
- 军事领域中的AI应用 🛡️
- 经济国家主义与AI产业 💼
- 锁定错误价值观的风险 😟
- AI对社会格局和道德的影响 🌍
- 技术与道德的权衡 ⚖️
- 解决AI对人类的风险的路径 🛠️
- AI的全球合作和新的故事 ✨
- 总结与未来展望 🚀
AI爆发的挑战与机遇 😮
AI技术的迅猛发展带来了巨大的挑战和机遇。类似于流行病一样,社会观念和思想在人群中传播并引起强烈的反应。然而,不同于微生物,这些观念可以在人群中迅速扩散并影响到社会和个体。AI技术的传播也遵循这个模式,形成了一个智能算法的流行病传播网络。
中国AI在全球的地位 🌐
中国被认为在AI领域具有重要的竞争优势。传统的AI发展国家,如美国和西方民主国家,受制于隐私保护法规的限制,而中国则在数据采集方面没有类似的限制。此外,中国政府可以更高效地指导资源分配,从而比西方更快地推动技术创新。因此,人们普遍认为中国在未来的技术组织和发展中将远远超过西方国家。
然而,这种观念也引发了一些争议。许多西方国家坚持数据隐私的原则,认为这是一种不可或缺的权利。对于他们来说,隐私保护是一项奢侈,但是实现巨大的技术和社会进步的前提。因此,他们不愿意放弃隐私权,认为这是一种无法承受的风险。
军事领域中的AI应用 🛡️
军事应用是AI技术最引人注目的领域之一。2020年8月,美国国防高级研究计划局(DARPA)举办了一场“虚拟狗斗”比赛,参赛者包括人类飞行员和AI系统。令人震惊的是,最终AI系统以5比0的成绩击败了人类飞行员。
更令人担忧的是,AI系统使用了极具攻击性的战术,不仅靠近对手,而且对自身飞机的生存几乎不予考虑。这种侵略行为融入了一种认可观念中:如果要在未来技术领域占据主导地位,就必须将军事领域作为推动AI技术发展的渠道。
然而,这种基于冲突的开发AI技术的模式存在一些根本性的问题和风险。过于依赖军事手段可能导致技术发展的冲突,而非合作。这种冲突导向的AI开发模式可能会为未来带来更多问题。
经济国家主义与AI产业 💼
经济国家主义是另一个与AI技术相关的重要主题。每周,财经时报都会报道有关各国政治对合并收购和前沿技术投资的争议。例如,最近英国的半导体巨头ARM被美国科技巨头英伟达收购后,受到英国竞争与市场管理局(CMA)的调查。
无论涉及哪个领域或机构,故事的主线都是相同的:每个国家都希望建立自己的AI领军企业。如果我们接受这种观念,那么一个令人担忧的假设是,这些具有变革性的技术将被用于获取战略优势。
这产生了另一个问题,即当外国企业试图分一杯羹时,国家实力会受到扰乱。因此,如果全球各国都试图培养自己的AI领军企业,我们将面临一系列潜在的风险。
锁定错误价值观的风险 😟
我的担忧并不是关于自主无人机失控或杀人机器人之类的问题,尽管这些问题显然是我们需要关注的存在风险。最主要的风险是我们的价值观被锁定在错误的方向上。
我所说的“锁定错误价值观”的意思是,由于政府和私人部门的激励机制,人们更有可能将有害的价值观注入到AI系统中。政府面临短期的政治循环,往往会通过激烈而空洞的外交政策来取悦国内民众。与此同时,私营部门面临的是经济目标的短期激励,要求他们立即获取数据。这使得政府和私营部门都急于开发下一个超级AI模型,急于建立自己的AI领军企业。
在这个竞争的过程中,为了赢得或逃脱,不可避免地会采取一些捷径。这可能对AI价值观对齐问题带来负面影响,并最终对社会和个体造成深远的影响。这是目前最重要的风险之一。
AI对社会格局和道德的影响 🌍
AI对社会格局和道德的影响是一个复杂而多面的问题。首先,我们需要解决的是技术问题,即如何确保AI系统与其操作者保持一致。这涉及到如何在计算角度确保优化的技术挑战,以及确立这些价值观时的道德和规范问题。
这些都是根本性的问题,但我们并没有明确的答案。如果因为对Narrative的担忧而加快推动AI技术,那么将很难解决这些技术系统中的基本问题。根据城市慈善组织的一个预测模型,到2050年,将产生与工业革命一样具有变革性的AI系统。一旦这样的系统在经济和社会中被广泛传播,解决其中存在的问题将变得非常困难。
此外,考虑到只有少数人在致力于AI对齐问题的研究,更加增加了这种问题的风险。七个领先的AI组织中,仅有不到100名研究人员正在从事AI对齐的研究。如果变革性的AI在未来的30年出现,有足够的研究人员致力于确保其对人类有利吗?
这就像在没有脚手架的情况下为家庭建造房屋,或者当只有100个研究人员致力于确保2050年可以使用碳捕获技术时一样不利。这对AI技术的未来和人类社会都是一个严重的挑战。
技术与道德的权衡 ⚖️
解决AI对人类的风险的路径是一个复杂、不确定的问题。可以从两个方向来解决这个问题。
首先,我们可以从Narrative的角度来重新塑造AI的故事。我们可以重新定义“智能”的概念,将其作为一种社会活动,一种合作而非冲突的努力。要应对当今全球性的挑战,我们需要全球合作。
其次,我们可以解决AI与人类价值观的对齐问题。这需要同时解决技术挑战和道德、规范问题。Hillary Greaves和Brian Christian等人在AI对齐问题上的研究工作比我理解的更深入。如果你对这个话题感兴趣,我强烈推荐你了解一下他们的研究成果。
解决AI对人类的风险的路径 🛠️
为了应对AI对人类的风险,我们可以采取两种方法。第一种方法是改变AI的叙事方式,以减少冲突。这要求我们创造一个全新的AI叙事,一个基于合作而非竞争的叙事。
同时,我们也需要解决AI对齐问题,确保AI系统与人类的价值观保持一致。这需要解决技术问题和道德、规范问题两方面的挑战。
然而,解决这些问题需要全球范围的合作。目前,只有少数研究人员在致力于解决这些问题,而且他们的地理分布也非常集中。
因此,我们需要建立一个全球性的合作框架,考虑到各种文化和社区的偏好和价值观。只有这样,我们才能确保AI技术对全球社会和人类的益处。
AI的全球合作和新的故事 ✨
现状和不确定性并非不可克服。要解决AI对人类的风险,我们需要开始创造新的故事。
我们需要一个全球共同合作的新故事,一个能够促进各国和地区的合作、包容和理解的故事。
同时,我们也需要建立一个包容性的AI发展框架,一个能够充分体现全球各种文化和社区价值观的框架。
只有这样,我们才能确保AI技术的安全发展,并让其造福于全人类。
总结与未来展望 🚀
AI的发展带来了挑战,也带来了无限的机遇。对于中国AI在全球的地位、军事应用、经济国家主义以及锁定错误价值观的风险,我们都需要保持警惕和深思熟虑。
解决AI对人类的风险需要我们同时关注技术和道德层面的问题,并推动全球合作和理解。只有通过建立全球范围的合作框架和创造新的故事,我们才能实现AI技术的安全和可持续发展。
我们面临着巨大的挑战,但我们也有巨大的机遇。让我们共同努力,引领AI技术的未来,并确保其为全人类带来福祉。
感谢大家!