ChatGPT 狂飙难撼人脑主导地位

VSole2023-05-22 08:41:22

ChatGPT狂飙来袭,人类有点心猿意马、忐忑不安,担心人脑的主导地位被ChatGPT取代而边缘化,有的人害怕饭碗被ChatGPT夺走,有的想依托ChatGPT投机取巧,也有一些中学生不愿刻苦学习了,以为未来可借助ChatGPT投机取巧……总之,ChatGPT被神化,人类有了危机感或麻木不仁。

不可否认,作为新一轮技术革命的急先锋,由人工智能技术衍生出来的智能机器人ChatGPT,其优势在于能快速抓取并处理大量信息,完成撰写邮件、视频脚本、文案和编写代码等任务。同时,ChatGPT还可以扮演“虚拟助手”的角色,与用户进行人性化交互对话,像真人一样聊天,回答诸如“老婆和妈同时掉进水里先救谁”“中国队什么时候进世界杯”等灵魂追问。

然而,ChatGPT并非包打天下的万能应用。ChatGPT写出的方案虽有条理性,但逻辑性不强,深度解读分析不够,多为空洞乏味的“八股文”。如写应试作文,只能保证不跑题、拿到及格分数,想得高分没门。在市场运作上,ChatGPT不是行业“预言家”,充其量只是投资者和经营者的“助手”或“副驾驶”,不能将其作为“市场预测器”。

与此同时,ChatGPT也存在着一些潜在风险和挑战,主要表现为:ChatGPT的应用需要建立在强大的算法和数据支撑之上,如果数据集成存在偏差或者缺失,可能会导致回答不准确、不合理,甚至有误导性信息出现。比如,在金融领域,ChatGPT依赖的知识库仅截止到2021年,这意味着它无法研究2022年剧烈的市场波动,其中包括全球熊市、美联储激进的货币政策以及俄乌冲突对全球金融市场的影响等。

况且,ChatGPT是由人脑操控的,虽然上知天文下知地理,但是它毕竟是由人类编写的程序,最终受人脑操控,它并不能像人类一样理解语言背后的文化积淀、情感生成和人际关系等因素。而截至目前,ChatGPT的创造力远不及人脑。人脑能产生新思想、新发现、新理论、新设计、新方法,具有创造新事物的能力。印度信息技术服务巨头Infosys创始人、号称“印度比尔·盖茨”的纳拉亚纳·穆尔蒂表示,没有什么能打败人类的思维,即使是像ChatGPT这样的人工智能聊天机器人。人类的大脑具有最强大的想象力,不必担忧ChatGPT取代人类,人脑永远优于人工智能。

穆尔蒂指出,他更愿意把ChatGPT作为一种工具、一种提高工作质量和产出的助手,而不是作为人类的替代品。而人与人之间的区别在于人类的思维。这意味着,更聪明的人将能够更好地利用ChatGPT。

因此,可以断言,也许ChatGPT会取代人类很多工作,但绝对不会取代人脑。

人脑最大的功能、不可替代之处就在于会思考。人脑具有独特的思维能力和情感体验,而ChatGPT只是一种僵硬的程序,缺乏人类智慧和创造力。说到底,ChatGPT只是人类用来改造世界、促进社会文明的一种工具,ChatGPT狂飙难撼人脑主导地位。

人类不能跟ChatGPT比死记硬背、生搬硬套,而是要站在ChatGPT这个巨人的肩膀上,去提升自己的创造力、情感力、想象力,做智能机器的主人,在使用ChatGPT的同时,应该保持理性和批判精神,对回答进行思考和比较,不轻信一家之言。与此同时,还需打造一个良好的智能应用生态环境,将人工智能技术与人类思维相结合,强化人类的思维能力,促进人机协同发展。

本作品采用《CC 协议》,转载必须注明作者和本文链接
ChatGPT狂飙来袭,人类有点心猿意马、忐忑不安,担心人脑主导地位ChatGPT取代而边缘化,总之,ChatGPT被神化,人类有了危机感或麻木不仁。
监管挑战迫在眉睫这样的警告给各国监管机构带来压力,要求它们阐明将人工智能严加控制的计划。欧盟正在加快推动人工智能立法。2021年4月,欧盟委员会提出了《人工智能法案》条例草案。欧盟希望该法案既能推动人工智能的投资和创新,又能促进保障公民基本权利和安全的现行法律得到有效执行和加强。他认为禁令可能损害意大利的商业和创新,并希望解除禁令。
机器首次雇佣人类虽然测试结果是“阴性”,但GPT-4在测试中的一些表现足够骇人。这项使用人工智能操纵人类的测试与去年Meta的CICERO的研究相呼应。根据其官方网站,ARC的使命是“使未来的机器学习系统与人类利益保持一致”。撕裂的人工智能社区非洲大草原上,两个为了争夺配偶激烈厮打的猎豹甚至无法躲过笨拙的公狮的袭击。
近期,人工智能聊天机器人ChatGPT几乎火爆全网,它能根据要求进行聊天,能撰写论文、创作诗歌,还能编写代码、生成剧本等等,可谓是“上知天文,下知地理”,在展现出AI惊人能量的同时,也为世界带来了不可思议的新能力。
在大模型的落地过程中,业界人士逐步意识到,大模型的价值不仅在于本身的强大智慧,更在于与各行业、各企业具体业务场景的紧密结合。将大模型能力通用化、产业化和垂直化,并深度融入不同行业场景的实际需求中,是提升大模型应用效果的关键所在。
近期网络安全研究发现,黑客大规模注册与ChatGPT相似的域名,通过模糊用户判断,滥用ChatGPT模型信誉,引发恶意下载和信息泄露。
ChatGPT等大语言模型(LLM)使用来自图书、网站及其他来源的海量文本数据进行训练,通常情况下,训练它们所用的数据是一个秘密。
VSole
网络安全专家