上来就抛出王炸问题。</p>
<div class="contentadv"> 霍利淡淡一笑,“国内做的最好的AI大模型,能够匹配ChatGpt3.5。</p>
差距很明显,如果按照时间算,落后两年左右。</p>
不可否认,这是一段比较长的距离,我们在追赶的同时,OpenAI也在快速更迭,甚至是以一种我们难以预测的速度。</p>
奥特曼是我很喜欢的一位科技CEO。”</p>
奥特曼坐在台下抬手捂胸,以示礼貌。</p>
主持人:“有追上的可能性吗?”</p>
霍利微笑道:“当然,因为今天我坐在了这里。”</p>
偏头看向马斯克,“为什么马斯克邀请的不是别人?”</p>
马斯克笑着鼓掌,“霍创造了很多商业奇迹,我同样期待他创造科技奇迹。</p>
也许他会超过我们。”</p>
有点捧场的味道。</p>
现场掌声热烈。</p>
青年人的自信还是很有魅力的。</p>
特别是用这种幽默风趣的方式表现出来。</p>
主持人:“我也很期待那一天。</p>
霍,人工智能能够击败人类吗?”</p>
霍利:“我不知道你们如何定义失败?</p>
是指智力超过人类,还是指统治人类,甚至是消灭人类?</p>
如果是比较智力,我想人工智能已经在多个领域击败了人类。</p>
他就像多个高智商的个体融合在了一起,世界上很难找出和他一样聪明的人类。</p>
如果击败是指统治和消灭人类,这个话题需要从多个纬度去思考。”</p>
主持人:“马斯克,你同意霍的观点吗?”</p>
“当然。”,马斯克点头,“AI最后会替代人类,人类将会以意识生存在这个世界上。</p>
人的躯体将会被AI消灭。</p>
AI的复杂性,已经很难用人类的大脑去思考了,也许在系统开发和算法研究上出现一个微小的错误,就会带来全球性的灾难。</p>
人类应对风险的能力是有限的。”</p>
霍利:“我并不希望这样的事情发生。”</p>
主持人看向霍利,今天对话上的第一次观点碰撞诞生了。</p>
主持人:“Mr.霍不赞同马斯克的观点?”</p>
霍利:“任何一个新事物的诞生,都会给人类带来恐慌,但是我们不能忽视一个重要的现象,人类的适应能力是极强的。</p>
马斯克预估了AI最坏的结果,但是他忽略了人的主观能动性。</p>
核武器诞生的时候,也给全人类带来过恐慌。</p>
大国之间的核竞赛诞生了很多末日的言论。</p>
但是最后国际社会创建了一个国际原子能结构(IAEA)监管核武器,让核武器只是停留在军事威胁上。</p>
AI也是如此,从它诞生开始,我们必须认清它带来的负面影响,包括人类的毁灭。</p>
我相信国际社会同样能够做好对AI的监管。”</p>
马斯克摇头道:“NO!霍,人类无法监管AI,它的成长速度和变化超过了人类的预知能力。”</p>
霍利:“人类不可以,但是AI可能。”</p>
马斯克愣神看着霍利。</p>
现场也突然安静。</p>
主持人不确定道:“霍,你的意思是用AI监管AI?”</p>
霍利点头。</p>
所有人都露出震惊的表情。</p>
这是一个非常新的话题。</p>