非常有趣的一則Twitter分享,關於GPT-3人工智慧演算法對哲學家質問的回答。
我稍微深入了解這個個案後覺得,如果我們拼湊恢復這篇「哲學回應」背後的方法論(見討論串)就可以知道它說實在話離「在西方科技界引發喧然大波」還有一段距離。
不過即便了解了操作者的介入與選擇(cherry picking)後讓這篇機器人書寫的哲學論證失色不少,我對於GPT-3的「擬似推論」(reasoning)仍舊留下深刻的印象。
事實上,它的自我澄清幫助我多了解了一些AI的現狀(以及意外地,一些哲思的眉角)。
就Rhetoric來說(或者GOT-3說的lying),我覺得人類還是強過AI, AI「誠實」而且自覺,它知道自己在說謊,但相較之下,人類沒有,人類經常被自己的修辭技術給折服甚至沈浸其中,說了謊而不自知的人類確實「非常人類」。
就該如何看待修辭的辯證,對說謊採取的態度,到底是AI聰明還是人類聰明?這個問題,AI不會給你回答,但對人類自己倒是個兩可但重要的大哉問,你的回答決定了你人生處世的「哲學風格」。
#人類需要從AI移出更多時間精力來訓練自己思考。
