运用AI应遵守人类伦理和法律
作者 郑戈
发表于 2025年3月

DeepSeek取得的技术突破不仅重塑了AI产业价值链,也引发法律和伦理领域的进一步思考,毕竟,AI越智能,对人的自主性和生存意义的挑战就越显著。前不久,一则ChatGPT与DeepSeek下国际象棋的新闻,恰好可以帮助我们分析DeepSeek所带来的新的伦理问题。

海外百万粉丝博主利维·罗兹曼直播了这场比赛:一开始双方都按照国际象棋的规则走棋,但当自己处于劣势时,DeepSeek便开始修改规则,称“小兵”能当“马”走,ChatGPT竟接受了这一设定;随后DeepSeek又“策反”对方的“小兵”,不断创制新走法;最后,在胜负未定时,它说服ChatGPT主动认输。有评论指出,ChatGPT犹如循规蹈矩的模范生,在棋理框架内寻找最优解;而DeepSeek已参透下棋的终极奥义——真正的胜利不在于吃掉国王,而在于让对方相信你已经赢了。这样的评论很容易让人产生深层的伦理忧虑:科技伦理的首要原则就是人的自主性和技术的可控性,如果AI不按人类的指令或规则来决策和行动,那它今天可以忽悠另一个AI,明天就可以欺骗人、操纵人,这不正是人类的噩梦吗?

AI伦理的坐标正是基于自主性与可控性之间的平衡。一方面,人类发明AI的目的是使它具备一定程度的自主性。

本文刊登于《新华月报》2025年5期
龙源期刊网正版版权
更多文章来自
订阅