被这两天的新闻吓到了!你们知道吗?全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停高级人工智能的研发! 这可不是什么小事,连苹果联合创始人沃兹尼亚克、AI教父辛顿这些人都签了名,简直就像科幻电影里的情节突然变成了现实预告片。 10月22号有个叫“未来生命研究所”的组织发了声明,现在签名的顶尖科学家和科技大佬已经超过3000人了,沃兹尼亚克、AI教父辛顿这些响当当的人物全在里面,咱们国内的姚期智院士、张亚勤这些专家也签了名。 说真的,换谁看了这阵仗都得慌,能让这么多大佬放下分歧联名呼吁,说明事儿真的急了。 他们要暂停的不是咱们平时用的聊天机器人、导航这些AI,是那种“超级智能”——就是在所有事儿上都比人聪明的AI,不管是算题、搞科研还是分析问题,人类都比不上它。你想想,这东西要是没管好,后果不堪设想。 这些大佬直接说了,搞不好会让经济崩溃,咱们普通人的权利、尊严都受影响,甚至威胁国家安全,最坏的情况可能让人类面临灭绝风险,这话可不是吓唬人。 AI教父辛顿就警告过,要是超级智能真发展起来,它可能会偷偷操纵人,连负责关了它的人都能骗过去,到时候人根本管不住它。 咱们国内的曾毅研究员更直接,他说现在全世界都没准备好接招,根本没有靠谱的办法能保证这东西安全,万一它的目标和人类不一样,出了岔子就再也挽回不了了。 而且现在科技公司都在抢着搞这个,Meta刚把AI部门改名叫“超级智能实验室”,OpenAI这些公司也在比赛谁先搞出来,越抢越没章法,风险自然就越来越大。 可能有人觉得这是小题大做,不就是个机器吗?但你看看现在的情况,AI已经能写文章、做设计,甚至帮着看病了,再往上发展真不好说。 更关键的是,现在连管它的规矩都没立全,国内早就强调过AI得“安全、可靠、可控”,还出台了《数据安全法》《个人信息保护法》这些法律,但超级智能是新问题,好多漏洞还没补上。 你想啊,要是这东西拿到咱们的身份证号、手机号这些隐私信息,随便泄露出去,骗子一用一个准;要是它生成假新闻,咱们根本分不清真假,社会不就乱了? 还有工作的事儿,现在已经有不少客服、文案的工作被AI抢了,真到超级智能时代,说不定更多人得失业,到时候吃饭都成问题。 最让人揪心的是,现在连科学家都没摸透怎么控制它。曾毅研究员就说,以50年为限,超级智能肯定会出现,但人类能不能做好准备就难说了。就像咱们盖房子,还没打好地基就往上堆砖头,早晚得塌。 这些大佬呼吁暂停,不是不让发展AI,是想踩刹车喘口气,等大家研究明白怎么管它、怎么保证安全,达成共识了再接着搞,不然就是拿全人类的安危赌一把。 而且不光是大佬担心,普通人也早就觉得该管管了,有个调查显示,只有5%的人觉得现在不管AI也行,73%的人都支持搞更严格的监管,64%的人都觉得没搞清楚安全问题前,不能瞎搞超级智能。 这说明大家都看透了,AI这东西再好,也得有缰绳牵着,国内一直主张“以人为本”搞AI,就是怕技术发展跑偏了,忘了给人服务的初衷,这些专家签名呼吁,其实就是呼应了这个想法。 现在国际上也在吵这事儿,欧盟想让AI透明可追溯,美国更偏向让公司自己管自己,分歧挺大的。 但不管怎么说,这事儿已经不是哪个国家自己的事了,得全球一起想办法。要是现在不管不顾,真等超级智能跑出来了,再想立规矩就晚了。 就像以前发明核武器,没管好就差点出大问题,AI这东西比核武器还复杂,更得提前设防。 所以说,这些大佬的呼吁太有必要了,不是杞人忧天,是真的看到了实实在在的风险,咱们普通人可能不懂那些复杂的技术,但只要想明白“没规矩的厉害东西不能随便搞”,就知道他们做的对。 国内现在也在抓紧完善监管,就是怕出乱子,毕竟技术是给人用的,不能反过来害了人。 这事儿也给所有人提了个醒,AI发展快是好事,但安全永远得放在第一位,不然再好的技术也可能变成灾难。
