OpenAI成立“超级联盟”团队 直面超级智能风险

2023-07-07大飞

OpenAI的首席执行官 Sam Altman 发起了一项全球活动,以提高人们对人工智能超级智能潜在危险的认识,即机器超越人类智能并可能变得无法控制。为了回应这些担忧,OpenAI最近宣布成立一个专门团队,负责开发方法来解决与超级智能相关的风险,这种风险可能在这十年内出现。

OpenAI成立“超级联盟”团队 直面超级智能风险

该公司强调 ,有效管理超级智能需要建立新的治理机构,并解决使超级智能与人类价值观和意图保持一致的关键挑战。

比特币怎么获得正如去年发布的一篇博客文章所述,OpenAI 承认调整 AGI(通用人工智能)对人类构成重大风险,可能需要全人类的集体努力。

新成立的团队被称为“Superalignment”,由机器学习领域的顶尖研究人员和工程师组成。 OpenAI 联合创始人兼首席科学家 Ilya Sutskever 和联盟负责人 Jan Leike 正在指导这项工作。

为了解决超级智能对齐的核心技术挑战,OpenAI 承诺将迄今为止获得的计算资源的 20% 用于解决对齐问题。 该公司预计将在四年内解决这些挑战。

Superalignment团队的主要目标是开发人类水平的自动对齐研究人员。 这需要创建能够有效地协调超级智能人工智能系统的人工智能系统,在速度和精度上超越人类。

为了实现这一里程碑,该团队将专注于开发一种可扩展的训练方法,利用人工智能系统来评估其他人工智能系统。 他们将通过自动搜索潜在问题行为来验证其结果模型。 对齐管道还将通过刻意训练未对齐的模型来进行严格的压力测试,以衡量其可检测性。

OpenAI 解决超级智能风险的努力标志着在追求负责任和一致的人工智能开发方面向前迈出了重要一步。 通过组建顶尖研究人员团队并投入大量计算资源,该公司展示了其致力于主动减轻与超级智能出现相关的潜在风险的承诺。 当他们踏上这一雄心勃勃的旅程时,OpenAI 开创了合作与团结的先例,以维护人工智能时代人类的未来。


免责声明:所提供的信息不是交易建议,www.wo.cc对根据本页提供的信息进行的任何投资不承担任何责任。本文内容仅供参考,风险自担!

相关文章
首页排行手游攻略专题