WIRED 雜誌報導的比喻很貼切:
期待科技公司能自動自發的針對「AI 技術的風險與社會負擔」做出公正可信的內部研究報告,就好像冀望石油公司對氣候變遷做出公正可信的內部評估一樣 - 不切實際。
當社會輿論越發質疑 AI 的潛在風險與負面影響時,眼光長遠的科技公司早在幾年前就將未來的獲利大把押注在這新興領域上。
而聰明的科技主管看到石油公司對於氣候變遷後知後覺,掩耳盜鈴的前車之鑑,早就自主宣布成立各種企業聯盟內部小組,專責研究 AI 技術的社會風險與提供產品發展方向的監督建議。
與其讓煩(凡?)人又不懂技術的政府機關立法監督,或第三方的民間組織插手囉唆, Microsoft,Amazon,Spotify,Twitter 等紛紛趕上「AI 科技,自主管理」的大船,而其中當然以二十幾年前創辦公司時大喊 "Don't be evil" 的領頭羊 Google 最吸引大眾關注。
當公司內部自主監督的組織衝擊到未來的獲利關鍵技術時,這個矛盾之爭到底誰勝誰輸?身為局外人的我們如霧裡看花。
可以確定的是,沒幾年前 Google 滾出紅地毯聘請的兩位 AI 研究監督小組主管都不在了。公司說自願離職,當事人說是被公司刻意開除。
究竟如何,也許如英文一句老話說的:the truth is always somewhere in between。
昨晚在家,邊用晚餐與調停小孩的爭吵之間,我大概花了30分鐘才仔細看完整篇非常詳盡的報導。媒體當然有它的立場,我們只能用自己的常識,經驗,open mind 與 scepticism 去閱讀然後下自己的判斷。
我個人覺得這是個可恥的醜聞,而自己被捲入在內的 Google 大神 Jeff Dean 則用公司一慣非常政治正確的口吻承認這個事件對 Google 的形象沒有幫助,而且事件當下公司「欠缺敏感度」。
從另一面向思考,假設我們對某種議題有強烈的看法與信仰,那我們該用什麼樣的方式去贏得別人的信任,讓別人願意聆聽,乃至爭取別人加入我們的陣容一起為該議題努力?
社會上有很多正義感強烈的好人,其中許多人的價值觀非黑即白,活在一種對錯分明的世界。道德感上的潔癖每個人程度不同,無可厚非。但最終的目的如果是希望更多人能認同自己的觀點,加入自己的陣營,那用什麼樣的態度對待他人才能有最大的效果?
核能問題也好,國家/黨派認同也罷 - AI 應用對社會公平的潛在風險也是 - 要讓別人願意接近你,傾聽你的意見,採用阿伯阿嫂式的喋喋不休道德勸說大概沒什麼用。只是用純科學數據分析的方式又會讓很多喜歡「文長慎入」的人連打呵欠。
但屢試不爽,幾乎一定失敗的方式就是用毫無妥協迴轉空間的正義之士立場,單刀直入的直白指出別人對該議題的邏輯錯誤與無心之過,或用冰冷苛薄的言語讓對方難堪 "打臉"。這樣的方式最終一定淪為自己同溫層增加,但是離希望能獲得更多人支持的初衷越來越遠。
原本打算分享紐約時報的一篇讀者投稿自述:"After Working At Google, I'll Never Let Myself Love a Job Again",後來想想,這些文章都是相當長的英文原文,也不見台灣媒體有中文翻譯。未來我拍一集阿洪福利社,兼翻譯邊完整分享我個人感想好了。
經常被人問到為什麼要離開 Google 這麼夢幻的公司。我自己很幸運沒有遇到這些故事裡的立場衝突或種族/性別歧視,但是畢竟還是參加過許多閉門會議,旁聽了不少讓人不舒服的立場與見識過各種職場上的自掃門前雪,也小小領教過公司要與你劃清界線,撇清責任時的冷酷態度。
我知道,曾經拿前公司金手銬既得利益者的我,離職後轉頭做任何批評都有偽君子的嫌疑,所以也一直猶豫自己該用什麼立場去分享一些現實面的經驗。
在離開 Google 前兩年,其實心裡早已不抱持任何 "don't be evil" 的幻想。
我很肯定地說,公司裡 99% 我遇到的同事都是好人,許多價值觀相同,是我尊敬的人,前輩,甚至是朋友。但是資本主義裡的 "法人" 就是這樣奇妙的生物,它可以把一群好人聚集在一起為一個目標努力,然後慢慢地模糊了許多界線,直到你再也不清楚 "don't be eveil" 裡的 "evil" 指的到底是什麼?
(然後再開三十個內部會議,創造二十份 confidential & proprietary 的內部文件去為它下定義。 - 這是玩笑話)
Google 有很多優秀的工作文化,我在各種文章與訪談裡已經分享過很多次,但是撇開科技公司的光環,它的本質脫離不開一間營利的大公司,如此而已。
Comments