半扩散工作室 #20: 生成式人工智能概述Part 2
第4章 相关政策
GenAI 技术,虽然受到研究者的广泛关注,但同时也引起了监管机构的重视。一个主要的问题是真实性:尽管像 ChatGPT 这样的GenAI工具已经非常强大,但它们仍可能生 成不真实的信息,这种现象被称为模型的“幻觉”。这不仅涉及信息的准确性,也涉及到 被恶意利用传播虚假信息的风险。为此,许多技术和算法正在进行改进以应对这一挑战。其次是有害信息的问题,包括生成内容中的偏见、成见和误导性信息。最后一个重要问题是隐私,特别是在处理敏感数据时的隐私保护。鉴于这些挑战,全球各国的政府机构和企 业正在探索并制定相关政策,以确保 GenAI 技术的健康和负责任的发展。
4.1 国外政策
美国在 GenAI 立法方面呈现出较为分散的态势,不同州分别推动着各自的立法进程。与 此同时,联邦政府正努力在现有的立法框架和监管规则内,对大型模型和人工智能进行适当的 规制。这种做法体现了一种从一开始就对技术进行管控的趋势,美国的政策制定以企业为主导。
在这个背景下,2023 年 7 月 21 日,包括 OpenAI、微软、谷歌在内的美国顶尖 AI 公司对外公 开承诺,将以负责任的方式发展人工智能技术。
欧盟陆续颁布了与人工智能和大模型合规监管密切相关的一系列法案及政策,以《人工智 能法案》(Artificial Intelligence Act)为核心,结合大模型可能涉及的其他领域的立法,逐步建 立起专项法案为主、现存法规为辅的人工智能法律监管框架。
Keep reading with a 7-day free trial
Subscribe to semi◦diffusion: an illustrated Freedom Trail to keep reading this post and get 7 days of free access to the full post archives.