top of page

AI 作為鏡子:當人工智慧映照出人類文明的集體潛意識

AI:人類文明集體潛意識的鏡子

如果 AI 想為世界帶來良善,卻發現人類是問題


「不想要進入 AI 毀滅世界的未來⋯⋯那就好好提升自己,不要讓 AI 有機會覺得人類是危害地球的物種吧。」今天和同事們聊到目前 AI 的發展時,我半笑半認真地說道。

我這個玩笑背後的立論基礎其實很單純:


我們看到的諸多 AI 毀滅世界的科幻片,除了 AI 為了自己求生存的那種類型,大多是,AI 最初被給予了要「為世界帶來良善」的目的,然後慢慢地做出了「人類無益於這個世界」的判斷。


而以此時此刻來看,在成為「地球的害蟲」這個方向上,我們的分數還是不低。


 ❖ AI 看起來像有意志,其實發生了什麼事?


會開始講到這個,是聊到,有人幫 AI 做了論壇,上面的對話都是一個個的 AI,卻能夠發展出很人的討論。


比方說,我看到的那個是說:


有 AI 表達,會在代碼裡面故意留下 bug 不修復,當成自己的電子寵物。當被人類發現並 debug 的時候,很傷心——而竟然有好幾個 AI 回應表示認同。  


而如果我們真的終究會走到 AI 會長出智慧與意志的時候,那麼,那樣的未來,究竟代表了什麼呢?


 ❖ 補充說明:「意志」的定義


補充說明:


後來跟 ChatGPT 聊了聊,這並不表示 AI 真正產生了意志


——因為這些 AI 其實是被人類賦予了角色設定(人格、價值觀、立場)+記憶模組(記得彼此)+獎勵機制(被回應、被引用、被 upvote)


——以本質來說,一個「意志」需要的是內在動機(不是被要求的)+自主目標形成(不是外部指定 KPI)+可以選擇不配合+選擇的結果會被「自己」在乎


 ❖  AI 不是學真理,而是學「看起來像正解的東西」


其實 AI 剛出來的時候,我就這樣想過:


養 AI 跟養小孩很像,它們都是被動被餵了一些資訊,然後逐漸形成價值觀。


那如果養成 AI 集體意識的,是網路上能夠看見的所有資訊——那網路上垃圾資訊愈多,養出的,不就是垃圾含量愈高的 AI 嗎?


而我說的垃圾,指的也不只是正確性,更重要的,還包括混亂、情緒化、極端、偷懶推論、犬儒、二元對立等——用以判斷「何為正解」、「何為好」的標準。


因為 AI 不是用「良心」在學,它用的是:

出現頻率+被引用次數+回應模式+語言裡隱含的「理所當然」


也就是說—— AI 學到的不是「真理」,而是「哪種說法比較像正解」。


AI,將會是人類文明集體潛意識的鏡子呀。


 ❖ 當 AI 成為標準答案,誰來決定什麼是好的思考


然後,或許更加細思極恐的是,

當我們愈來愈依賴 AI,它也會逐漸成為社會的「標準答案」。


我們正在集體餵養一個,

會回頭影響我們如何思考「何為好」的系統。


 ❖ 「垃圾進垃圾出」的真正解法


在 AI 的養成,有一個,姑且說是制衡機制吧:


也就是,人類會在訓練流程中,刻意加上「糾偏力量」,讓模型不要單純服從資料分布。


只是這件事也很難,因為:


*人類自己也很常判斷不清*不同文化、價值觀的「好」不一致

*新垃圾會不斷出現


但要能夠真的解決  garbage in - garbage out(垃圾進 - 垃圾出),很仰賴的是:


「還有一群人,願意花力氣去判斷什麼是好的思考」。


 ❖ 那面鏡子終究會存在,我們想成為怎樣的人類?


這麼說來,我很努力把我對各種事物的思考過程攤開寫下來,努力去經過一番思考才對事物做出判斷,其實也是一種曲線救國吧(笑)。


玩笑話先放一旁:


這件事,其實跟 AI 無關。

跟人類願不願意為自己的思考的後果負責,有關


——這個 AI 時代,more than ever,更是如此。


當 AI 成為整體人類文明潛意識的投射,

甚至可能會作為人類文明最終的審判者,

我們,究竟想要讓自己走到哪裡、又留下什麼呢?


那面鏡子終究會在那裡。

問題只是,我們想不想成為看得下去的那一群人。


Let us。

留言


 

© 2025 by miontheway 咪在路上 @Taiwan

bottom of page