人工智能既激发了人们对医学突破、气候解决方案和全新创造力的憧憬。同时,它也敲响了警钟,提醒我们警惕虚假信息、失业以及我们无法完全掌控的系统的可能性。
印刷机出现后,人类花了几个世纪的时间才将其普及。电力的普及则花了几十年。即使是互联网,尽管发展速度很快,但发展也参差不齐。由于全球化和数字基础设施的发展,今天一个实验室的突破可能会影响明天的数百万人。这种速度和影响力使得风险和机遇都更难以控制或忽视。
恐惧和兴奋这两种反应都是合理的。恐惧就像指南针,指引我们找到风险所在,而兴奋则是推动探索的力量。在本文中,我们将探讨为什么真正的工作是学习如何同时兼顾两者,以及如何设计出既能驱动我们前进的引擎,又能保障我们安全的“刹车”。
推理恐惧
“对人工智能的恐惧是对人类从未面临过的速度和范围碰撞的反应。”
对人工智能的恐惧并非抽象概念,而是根植于人们已有的认知。算法已经决定了谁能被雇佣、谁能获得贷款,以及信息如何传播。过去,新技术的影响往往受地域限制。一个印刷错误可能会误导一座城市;一个电力故障可能会导致整个社区停电。而有了人工智能,一个漏洞可以在几秒钟内传播到全球,在无人察觉之前,跨平台、跨行业地复制。
这个量表放大了现有的担忧:
- 当大多数人无法完全理解的系统做出决策时,就会产生失去控制的感觉。
- 当只有少数参与者掌握最先进模型的关键时,影响力就会集中。
- 看到机器不仅进入重复性劳动领域,还进入塑造身份和目标的创造性和专业领域,这让人感到不安。
- 由于错误信息的传播速度超过了事实核查的速度,信任度正在逐渐丧失。
- 最后,当影响范围如此之大时,即使是低概率风险也会产生影响,这令人感到不安。
在兴奋与谨慎之间寻求平衡
若说速度与规模会放大恐惧,那它们同样也会放大兴奋。人工智能之所以存在风险,正是因为它具备学习、适应和快速传播的能力,而这些特质也恰恰是其强大之处的来源。一个能够跨领域关联各类模式的系统,不仅会对就业造成冲击,更能加速疾病疗法的研发、设计新型材料,并助力稳定脆弱的生态系统。
人们很容易陷入两种极端:要么盲目地仓促前行,要么在恐慌中停滞不前。但历史告诉我们,唯有将发展与克制相结合,才能创造持久的价值。电力直到我们制定出相关标准与安全规范后,才真正具备了变革性的力量;互联网也只有在我们学会构建通信协议与防火墙之后,才变得切实可用。对于人工智能而言,我们如今所设计的 “刹车系统”,将决定其这台 “引擎” 最终会带领我们走向共同发展,还是共同受损。
要实现这种平衡,就需要转变思维模式:我们的目标应是构建具备韧性的系统,而非仅仅追求速度。仅仅推出运算速度更快的模型是远远不够的。我们还需要跟得上节奏的监管机制、能够让隐性问题显性化的透明度,以及足够灵活、能够承受冲击而不崩溃的社会体系。
我们所需的技能与 “刹车机制”
“这些技能与‘刹车机制’共同构成了韧性发展的工具箱。若缺少它们,‘引擎’(此处喻指人工智能技术)将失控运转;有了它们,我们才有机会掌控未来的发展方向。”
与以往发明不同,人工智能并未给我们数十年的调整时间。其规模之大,迫使我们必须同步构建 “引擎” 与 “刹车机制”,这意味着从一开始,就需要各类不同专业领域的力量协同合作。
技术研发者能够将 “黑箱”(指无法解释内部决策逻辑的 AI 系统)转化为可解读的存在。此处的 “刹车机制” 便是 “可解释性”,具体体现为相关代码与工具,让人类在依据 AI 行动前,能够对其决策逻辑提出质疑、进行核验。
举一个实际场景为例:“引擎” 可以是这样一款 AI 模型 —— 它能在医学影像中识别出人类肉眼难以察觉的异常模式,从而实现疾病的早期诊断,甚至可能挽救生命。但 “刹车机制” 的重要性同样不容忽视:每一项由 AI 生成的诊断建议,都必须经由医疗专业人员审核 —— 他们会综合考量患者的具体病情背景、医疗伦理规范以及既往病史。若缺少这一环节,仅一次有缺陷的模型更新,就可能在一夜之间导致误诊情况在全球范围内扩散。
律师与伦理学家会将抽象的价值观转化为可执行的标准。此处的 “刹车机制” 是 “问责制”—— 即明确的规则,它迫使相关机构对自动化决策的依据进行解释并承担相应责任,就像我们要求食品或药品必须符合安全标准一样。
举一个实际场景为例:在招聘领域,“引擎” 可以是一套 AI 系统,它能在几小时内完成对数千份简历的筛选工作。但如果缺乏问责制,这套系统也可能在无形中大规模筛选掉女性或少数群体求职者。而审计追踪与申诉机制便是关键的 “刹车机制”,它们能防止偏见被固化到代码之中。
经济学家与劳工专家让变革的影响清晰可见。此处的 “刹车机制” 是 “前瞻性准备”—— 即在工作岗位消失前(而非消失后)就设计好的再培训项目、转型基金以及新型社会支持模式。
举一个实际场景为例:“引擎” 可以是能在几秒内生成营销文案或法律文书的 AI 工具。但这种高效也可能在一夜之间掏空相关行业(导致大量岗位流失)。而通过技能重塑计划与收入过渡保障项目所做的前瞻性准备,能够缓解这种冲击,帮助劳动者实现转型,而非陷入失业困境。
心理学家与社会学家揭示信任与身份认同方面的隐性变化。此处的 “刹车机制” 是 “认知引导”,具体体现为相关指导原则与教育举措,帮助人们应对(AI 带来的)模糊边界问题。
举一个实际场景为例:“引擎” 可以是一款旨在缓解孤独感的聊天机器人。对一部分人而言,它确实能发挥作用;但对另一部分人来说,它会加剧依赖心理,模糊真实人际连接与模拟互动之间的界限。而认知宣传活动与心理健康支持体系便是 “刹车机制”,它们能确保本应提供帮助的工具,不会在无形中造成伤害。
传播者 —— 教师、记者、艺术家 —— 让隐性问题变得清晰可见。此处的 “刹车机制” 是 “通俗解读”:即将复杂的技术内容转化为人们能够理解并做出回应的语言与图像。
举一个实际场景为例:“引擎” 是一款人工智能预测性警务系统,其宣传定位是保障安全的工具。若缺乏通俗解读,社区民众可能永远无法察觉系统数据中隐含的偏见。而传播者通过用清晰易懂的语言揭示这些偏见,为公众讨论与反对抵制创造了空间。
此外,普通民众并非人工智能的被动接受者;当 AI 出现问题时,他们往往是最先察觉的人。这些亲身经历本身也是一种 “刹车机制”,能在危害发展成系统性问题之前向其他人发出警示。
再举一个实际场景:“引擎” 是某零售连锁企业全面推行的人工智能排班系统。该系统虽提升了效率,却导致员工面临工作时长难以预测的困境。而员工自身 —— 通过向工会、同事或公众分享这些经历 —— 将成为 “刹车机制” 的施加者:他们会迫使企业承担责任并对系统进行调整。
以恐惧为指引,以兴奋为动力
在这充满不确定性的当下,我想邀请大家换一种视角:不要再将恐惧与兴奋视为对立面,而应将它们看作相辅相成的伙伴。我也想邀请大家畅想这样一个未来 —— 在这个未来里,这种平衡能切实发挥作用:医生会得到透明化诊断工具的辅助而非取代;在行业陷入衰退前,劳动者已完成技能再培训;孩子们借助 AI 辅导工具学习,但始终有教师引导,守护他们的好奇心;气候模型保持开放透明且接受问责,推动集体行动而非服务于私人利益。这便是 “引擎” 与 “刹车机制” 协同作用所能呈现的理想图景。
若人类能把握好这种平衡,人工智能定能成为我们的伙伴 —— 它将放大我们人性中更美好的一面,助力我们守护这个共同家园的美好。
你怎么看?
当下,你对人工智能的感受是恐惧更多,还是兴奋更多?你认为社会应如何适应人工智能日益全球化、高速发展的态势?