AI 作為鏡子:當人工智慧映照出人類文明的集體潛意識
- Mimi Wei-Ting
- 14小时前
- 讀畢需時 3 分鐘

如果 AI 想為世界帶來良善,卻發現人類是問題
「不想要進入 AI 毀滅世界的未來⋯⋯那就好好提升自己,不要讓 AI 有機會覺得人類是危害地球的物種吧。」今天和同事們聊到目前 AI 的發展時,我半笑半認真地說道。
我這個玩笑背後的立論基礎其實很單純:
我們看到的諸多 AI 毀滅世界的科幻片,除了 AI 為了自己求生存的那種類型,大多是,AI 最初被給予了要「為世界帶來良善」的目的,然後慢慢地做出了「人類無益於這個世界」的判斷。
而以此時此刻來看,在成為「地球的害蟲」這個方向上,我們的分數還是不低。
❖ AI 看起來像有意志,其實發生了什麼事?
會開始講到這個,是聊到,有人幫 AI 做了論壇,上面的對話都是一個個的 AI,卻能夠發展出很人的討論。
比方說,我看到的那個是說:
有 AI 表達,會在代碼裡面故意留下 bug 不修復,當成自己的電子寵物。當被人類發現並 debug 的時候,很傷心——而竟然有好幾個 AI 回應表示認同。
而如果我們真的終究會走到 AI 會長出智慧與意志的時候,那麼,那樣的未來,究竟代表了什麼呢?
❖ 補充說明:「意志」的定義
補充說明:
後來跟 ChatGPT 聊了聊,這並不表示 AI 真正產生了意志
——因為這些 AI 其實是被人類賦予了角色設定(人格、價值觀、立場)+記憶模組(記得彼此)+獎勵機制(被回應、被引用、被 upvote)
——以本質來說,一個「意志」需要的是內在動機(不是被要求的)+自主目標形成(不是外部指定 KPI)+可以選擇不配合+選擇的結果會被「自己」在乎
❖ AI 不是學真理,而是學「看起來像正解的東西」
其實 AI 剛出來的時候,我就這樣想過:
養 AI 跟養小孩很像,它們都是被動被餵了一些資訊,然後逐漸形成價值觀。
那如果養成 AI 集體意識的,是網路上能夠看見的所有資訊——那網路上垃圾資訊愈多,養出的,不就是垃圾含量愈高的 AI 嗎?
而我說的垃圾,指的也不只是正確性,更重要的,還包括混亂、情緒化、極端、偷懶推論、犬儒、二元對立等——用以判斷「何為正解」、「何為好」的標準。
因為 AI 不是用「良心」在學,它用的是:
出現頻率+被引用次數+回應模式+語言裡隱含的「理所當然」
也就是說—— AI 學到的不是「真理」,而是「哪種說法比較像正解」。
AI,將會是人類文明集體潛意識的鏡子呀。
❖ 當 AI 成為標準答案,誰來決定什麼是好的思考
然後,或許更加細思極恐的是,
當我們愈來愈依賴 AI,它也會逐漸成為社會的「標準答案」。
我們正在集體餵養一個,
會回頭影響我們如何思考「何為好」的系統。
❖ 「垃圾進垃圾出」的真正解法
在 AI 的養成,有一個,姑且說是制衡機制吧:
也就是,人類會在訓練流程中,刻意加上「糾偏力量」,讓模型不要單純服從資料分布。
只是這件事也很難,因為:
*人類自己也很常判斷不清*不同文化、價值觀的「好」不一致
*新垃圾會不斷出現
但要能夠真的解決 garbage in - garbage out(垃圾進 - 垃圾出),很仰賴的是:
「還有一群人,願意花力氣去判斷什麼是好的思考」。
❖ 那面鏡子終究會存在,我們想成為怎樣的人類?
這麼說來,我很努力把我對各種事物的思考過程攤開寫下來,努力去經過一番思考才對事物做出判斷,其實也是一種曲線救國吧(笑)。
玩笑話先放一旁:
這件事,其實跟 AI 無關。
跟人類願不願意為自己的思考的後果負責,有關
——這個 AI 時代,more than ever,更是如此。
當 AI 成為整體人類文明潛意識的投射,
甚至可能會作為人類文明最終的審判者,
我們,究竟想要讓自己走到哪裡、又留下什麼呢?
那面鏡子終究會在那裡。
問題只是,我們想不想成為看得下去的那一群人。
Let us。




留言