《新疆师范大学学报》(哲学社会科学版)2023年第4期发表西北师范大学马克思主义学院令小雄副教授文章《ChatGPT爆火后关于科技伦理及学术伦理的冷思考》。
ChatGPT爆火后关于科技伦理及学术伦理的冷思考
摘 要
ChatGPT以通用人工智能的高科技姿态横空问世后,赢得业界青睐及全球热议。随之关于人工智能的伦理考量与忧虑在业界及各个行业层面引发广泛关注。ChatGPT“更像人类一样说话”让具有深度学习力的强人工智能语言模型注定在科技史上成为一座里程碑。文本从科技伦理及学术伦理视角出发,在实证研究的视域中考察ChatGPT的思考力与回答力,并对其语言能力、语言风格、论证效力及思想深度作出特征性分析与描述,旨在对其进行伦理考量。笔者试图客观考证ChatGPT是否具有道德伦理偏差偏见及其引发的科技伦理与学术伦理问题,并说明其中的技术机制与伦理成因,从全面性、可靠性、严谨性、深刻性、原创性等五个方面对ChatGPT的学术伦理要素进行分析,并从内部规训与外部规约两大维度对道德判断、数据泄漏、考试作弊与学术抄袭、作者署名权之争等问题提供应对之策。
关键词
ChatGPT;大语言模型;通用人工智能;科技伦理;学术伦理
观点提要
ChatGPT是GPT-3.5架构的主力模型,可以通过海量数据存储和高效设计架构理解和解读用户请求,进而以近乎人类自然语言的方式生成具有“较高复杂度的回应文本”。
ChatGPT注定成为开启2023年的一项决定性技术,将深刻改变或影响下一个智能时代的复兴。
ChatGPT的灵活性或人性化特质是其奠立AI里程碑意义的一个强项。其“人化”特质,具有人的“嘴替”功能,它能像人类一样说话,初步摆脱了原来聊天机器人的“非人化”特质,即上一代智能机器人语言系统表述出现的语句的僵硬性和明显的机器话特征。
ChatGPT作为“非人”,不具有人类的思考能力或道德伦理价值,用 ChatGPT 自己的话说:它是一个训练有素的人工智能模型,也称为聊天机器人。
ChatGPT在葆有道德伦理因素的基础上可以提供某种情绪价值,类似情绪安慰的“正确的废话”,当然,可以认为它不具有指导意义。
ChatGPT模型技术基于专有的“自注意力机制”(the Self-attention Mechanism),能够实现自然语言处理(NLP)任务中的高级功能,被认为“情商加智商”的高逼真性体现。
ChatGPT在脱虚向实的智能技术广泛使用的过程中撕裂了元宇宙话语叙事的面具,元宇宙叙事为其世界中的歌唱者和数字公民提供了数字化躺平方式,但宏观层面的元宇宙将成为缺乏事实公共性之地、争夺既得利益与文化霸权之地。
ChatGPT为人类带来以“最大化积极体验”为基础的功利主义伦理框架如何建构,人工智能应符合怎样的价值体系以及应拥有怎样的法律和伦理地位等问题。ChatGPT在何种科技伦理规范中才能提升未来人工智能趋利避害的可能性值得长期关注。
ChatGPT在相对表层的固定性文本层面或非专业领域能够为有需求的人提供便捷帮助,但教育界及研究者在充满创新、需要创造力的领域不应陷入对“技术智能的盲目崇拜”中。
作者简介
令小雄
西北师范大学马克思主义学院副教授
来 源:《新疆师范大学学报》
排 版:文娜
监 制:青马工作室
审 核:刘德雄 王宏渊