📢 Gate广场 #MBG任务挑战# 发帖赢大奖活动火热开启!
想要瓜分1,000枚MBG?现在就来参与,展示你的洞察与实操,成为MBG推广达人!
💰️ 本期将评选出20位优质发帖用户,每人可轻松获得50枚MBG!
如何参与:
1️⃣ 调研MBG项目
对MBG的基本面、社区治理、发展目标、代币经济模型等方面进行研究,分享你对项目的深度研究。
2️⃣ 参与并分享真实体验
参与MBG相关活动(包括CandyDrop、Launchpool或现货交易),并晒出你的参与截图、收益图或实用教程。可以是收益展示、简明易懂的新手攻略、小窍门,也可以是现货行情点位分析,内容详实优先。
3️⃣ 鼓励带新互动
如果你的帖子吸引到他人参与活动,或者有好友评论“已参与/已交易”,将大幅提升你的获奖概率!
MBG热门活动(帖文需附下列活动链接):
Gate第287期Launchpool:MBG — 质押ETH、MBG即可免费瓜分112,500 MBG,每小时领取奖励!参与攻略见公告:https://www.gate.com/announcements/article/46230
Gate CandyDrop第55期:CandyDrop x MBG — 通过首次交易、交易MBG、邀请好友注册交易即可分187,500 MBG!参与攻略见公告:https://www.gate.com/announcements
研究揭示:过度使用AI语言模型或影响人类认知能力
大型语言模型对认知能力的影响研究
随着大型语言模型(LLM)产品在全球范围内广泛应用,其优势和局限性日益凸显。近期,一项深入研究探讨了在教育环境中使用LLM进行写作时对认知能力的影响。
这项为期4个月的研究涉及54名参与者,他们被分为三组:使用LLM、使用搜索引擎和仅依靠大脑。研究过程中,参与者需要在限定时间内完成不同主题的文章写作任务。研究人员通过脑电图(EEG)记录参与者的脑电活动,评估其认知投入和负荷,并进行自然语言处理(NLP)分析和访谈。
研究结果显示,仅依靠大脑的参与者在写作风格上表现出较大的多样性,而LLM组的文章则趋于同质化。在使用特定命名实体(如人名、地点、年份等)方面,LLM组使用最多,搜索引擎组次之,仅依靠大脑组最少。
在认知负荷方面,研究人员使用动态定向传递函数(dDTF)方法进行测量。结果表明,随着外部支持的增加,大脑连接程度系统性降低。仅依靠大脑组表现出最强、最广泛的神经网络连接,而LLM辅助组的整体耦合最弱。
此外,研究还发现LLM组对其文章的归属感较低,且在引用自己刚写的内容时表现较差。超过83%的LLM用户无法引用几分钟前写的文章。
这项研究指出,过度依赖LLM可能会降低认知能力,尤其是对年轻用户而言。研究人员建议,在LLM被广泛认可为对人类有益之前,需要进行长期研究以了解其对人类大脑的影响。
值得注意的是,这项研究尚未经过同行评审。它并非断言LLM本质上有害,而是警示人们不应过度依赖这类工具,而忽视了自主思考和努力的重要性。