新闻资讯

NEWS CENTER

资讯分类

Meta杨立昆:人类将是未来AI的主人而不是被其毁灭

  • 分类:新闻资讯
  • 作者:小编
  • 来源:
  • 发布时间:2025-03-22 20:24:35
  • 访问量:

【概要描述】  凤凰网科技讯 3月19日,商业内幕报道,Meta首席人工智能科学家杨立昆表示,   杨立昆周二在GTC大会上表示■:“嗯,在某些时候AI可能会

Meta杨立昆:人类将是未来AI的主人而不是被其毁灭

【概要描述】  凤凰网科技讯 3月19日,商业内幕报道,Meta首席人工智能科学家杨立昆表示,   杨立昆周二在GTC大会上表示■:“嗯,在某些时候AI可能会

  • 分类:新闻资讯
  • 作者:小编
  • 来源:
  • 发布时间:2025-03-22 20:24:35
  • 访问量:

  凤凰网科技讯 3月19日★◆,商业内幕报道,Meta首席人工智能科学家杨立昆表示,

  杨立昆周二在GTC大会上表示■★★★◆:“嗯,在某些时候AI可能会取代人类,但我认为人们不会接受这种情况■■,对吧?我的意思是★◆★,我们与未来的AI系统的基本关系是,我们将成为它们的老板★◆◆■。我们会有一群超级聪明、出色的AI员工为我们工作■◆◆。我不知道你们怎么想,但我喜欢和比我聪明的人一起工作。这是世界上最棒的事情。”

  他在帖子中写道■★■★■:“超级AI的出现不会是一个突然发生的事件。如今,我们还远没有一个能实现超级AI的蓝图★★◆★◆。在某个时候★◆★◆★■,我们会想出一种架构■★■◆◆,引领我们实现超级AI。◆◆■■■”

  在2024年的一条X帖子中,杨立昆称超级AI接管人类的想法是“科幻小说里的老套情节”,是“一种荒谬的情景◆★■,与我们所知道的一切事物的运作方式背道而驰◆★■■★”★★★◆◆。

  包括OpenAI的山姆・奥特曼和xAI的马斯克在内的人工智能行业领袖,常常将超级AI的出现描述为人类的关键时刻,在这个时刻■★★★,科学创新将蓬勃发展,但也可能导致一场足以让人类灭绝的灾难。

  他说:★★◆“解决这个问题的办法是开发更好的AI。这些系统也许要有常识■◆■◆,具备推理能力,能检查答案是否正确,并且能够评估自己答案的可靠性★◆■■★,而目前的情况还不完全是这样。但坦率地说,我不相信会出现那种灾难性的情景■◆■。”(作者/陈俊熹)

  杨立昆在GTC上表示,存在AI被滥用和不可靠的风险,但解决办法是◆◆■★■“开发更好的AI”。

暂时没有内容信息显示
请先在网站后台添加数据记录。
暂时没有内容信息显示
请先在网站后台添加数据记录。
blkj@benlitech.com
0576-85580770

联系我们 

热线 热线:0576-85580770

邮箱 邮箱: blkj@benlitech.com

地址 地址:浙江省台州市临海头门港
   新区东海第六大道15号

这是描述信息

公司官网

公众号

公众号

Copyright © 浙江本立科技股份有限公司 All Rights Resserved. 浙ICP备17039589号