AI 助陣醫學、防疫,個人隱私難兩全?
2021/06/09 研之有物
規範不完備是臺灣個資保護的一大隱憂,《個資法》問世遠早於 AI 時代、去識別化定義不清、缺乏獨立專責監管機構,都是當前課題。
評論
本篇來自合作媒體研之有物,作者周玉文、黃曉君,INSIDE 經授權轉載。
AI 醫療、科技防疫的人權爭議
健康大數據、人工智慧(AI)已經成為醫療研發的新聖杯,新冠肺炎(COVID-19)更將 AI 技術推上防疫舞臺,各國紛紛串聯大數據監控足跡或採用電子圍籬。但當科技防疫介入公衛醫療,我們是否在不知不覺中讓渡了個人隱私?
中研院歐美研究所副研究員何之行認為,規範不完備是臺灣個資保護的一大隱憂,《個資法》問世遠早於 AI 時代、去識別化定義不清、缺乏獨立專責監管機構,都是當前課題。
「天網」恢恢,公衛醫療的新利器
自 2020 年新冠疫情大爆發,全世界為了因應危機展開大規模協作,從即時統計看板、預測病毒蛋白質結構、電子監控等,大數據與 AI 技術不約而同派上用場。但當數位科技介入公共衛生與醫療健康體系,也引發人權隱私的兩難爭議。
2020 年的最後一夜,臺灣再次出現本土案例。中央流行疫情指揮中心警告,居家隔離、居家檢疫、自主健康管理的民眾,都不應參加大型跨年活動。而且,千萬別心存僥倖,因為「天網」恢恢,「我們能找得到您」!有天網之稱的電子圍籬 2.0 出手,許多人拍手叫好,但也挑起國家進行隱私監控的敏感神經。
隱私爭議不只在防疫戰場,另一個例子是近年正夯的精準醫療。2021 年 1 月,《經濟學人》(The Economist)發布亞太區「個人化精準醫療發展指標」(Personalised-health-index)。臺灣勇奪亞軍,主要歸功於健全的健保、癌症資料庫及尖端資訊科技。
國際按讚,國內反應卻很兩極。早前曾有人質疑「個人生物資料」的隱私保障,擔憂是否會成為藥廠大數據;但另一方面,部分醫療研究者卻埋怨《個人資料保護法》(簡稱《個資法》)很嚴、很卡,大大阻擋了醫學研發。為何國內反應如此分歧?
中研院歐美所副研究員何之行認為,原因之一是,
《個資法》早在 2012 年就實施,跑在 AI 時代之前,若僅僅仰賴現行規範,對於新興科技的因應恐怕不合時宜。
健保資料庫爭議:誰能再利用我們的病歷資料?
來看看曾喧騰一時的「健保資料庫訴訟案」。
2012 年,臺灣人權促進會與民間團體提出行政訴訟,質疑政府沒有取得人民同意、缺少法律授權,逕自將健保資料提供給醫療研究單位。這意味,一般人完全不知道自己的病例被加值運用,侵害了資訊自主權。案件雖在 2017 年敗訴,但已進入大法官釋憲。
民間團體批評,根據《個資法》,如果是原始蒐集目的之外的再利用,應該取得當事人同意。而健保資料原初蒐集是為了稽核保費,並非是提供醫學研究。
但支持者則認為,健保資料庫是珍貴的健康大數據,若能串接提供學術與醫療研究,更符合公共利益。此外,如果過往的數據資料都必須重新尋求全國人民再同意,相關研發恐怕得被迫踩剎車。
種種爭議,讓醫學研究和資訊隱私之間的紅線,顯得模糊而舉棋不定。何之行指出,「個人權利」與「公共利益」之間的權衡拉鋸,不僅是長久以來政治哲學家所關心的課題,也反映了現代公共衛生倫理思辨的核心。
我們有權拒絕提供資料給醫療研究嗎?當精準醫療的腳步飛也似向前奔去,我們要如何推進醫學科技,又不棄守個人的隱私權利呢?
「精準醫療」與「精準健康」是近年醫學發展的重要趨勢,透過健康大數據來評估個人健康狀況,對症下藥。但健康資料涉及個人隱私,如何兼顧隱私與自主權,成為另一重要議題。
去識別化爭點:個資應該「馬賽克」到什麼程度?
何之行認為,「健保資料庫爭議」短期可以從幾項原則著手,確立資料使用標準,包括:允許退出權(opt-out)、定義去識別化(de-identification)。
「去識別化」是一道安全防護措施。簡單來說:讓資料不會連結、辨識出背後真正的那個人。何之行特別分享 Google 旗下人工智慧研發公司 DeepMind 的慘痛教訓。
2017 年,DeepMind 與英國皇家醫院(Royal Free)的協定曝光,DeepMind 從後者取得 160 萬筆病歷資料,用來研發診斷急性腎衰竭的健康 APP。聽來立意良善的計畫,卻引發軒然大波。原因是,資料分享不僅未取得病患同意,也完全沒有將資料去識別化,每個人的病史、用藥、就醫隱私全被看光光!這起爭議無疑是一大教訓,重創英國社會對於開放資料的信任。
回到臺灣脈絡。去識別化指的是以代碼、匿名、隱藏部分個資或其他方式,無從辨識特定個人。但要達到什麼樣的隱匿保護程度,才算是無從識別特定個人?
何之行指出,個資法中的定義不甚清楚,混用匿名化(anonymous)、假名化(pseudonymised)、去連結(delink)等規範程度不一的概念。臺灣也沒有明確定義去識別化標準,成為爭點。
現行法令留下了模糊空間,那麼他山之石是否能提供參考?
以美國《健康照護可攜法案》(HIPAA)為例,法案訂出了去除 18 項個人識別碼,作為去識別化的基準;歐盟《一般資料保護規則》則直接說明,假名化的個資仍然是個人資料。
退出權:保留人民 say NO 的權利
另一個消解爭議的方向是:允許退出權,讓個人保有退出資料庫的權利。即使健保資料並沒有取得民眾事前(opt-in)的同意,但仍可以提供事後的退出選項,民眾便有機會決定,是否提供健康資料做學術研究或商業運用。
何之行再舉英國國民健保署 NHS 做法為例:英國民眾有兩階段選擇退出中央資料庫 (NHS Digital)的機會,一是在一開始就拒絕家庭醫師將自己的醫病資料上傳到 NHS Digital,二是資料上傳後,仍然可以在資料分享給第三方使用時說不。畢竟有人願意為公益、學術目的提供個人健康數據,對商業用途敬謝不敏;也有人覺得只要無法辨識個人即可。
近年,英國政府很努力和大眾溝通,希望民眾認知到資料分享的共善,也說明退出所帶來的社會成本,鼓勵人們留在資料庫內,享受精準醫療帶給個人的好處。可以看到英國政府藉由公眾溝通,努力建立社會信任。
參照英國經驗,目前選擇退出的比率約為 2.6%。保留民眾某種程度的退出權,但善盡公眾溝通,應是平衡集體利益與個人隱私的一種做法。
歐盟 GDPR 個資保護的四大原則
健保資料庫只是案例之一,當 AI 成為大數據浪潮下的加速器,最周全之策仍然是針對 AI 時代的資料運用另立規範。 歐盟 2018 年實施的《一般資料保護規則》(General Data Protection Regulation,以下簡稱 GDPR),便是大數據 AI 時代個資保護的重要指標。
因應 AI、大數據時代的變化,歐盟在 2016 年通過 GDPR,2018 年正式上路,被稱為「史上最嚴格的個資保護法」。包括行動裝置 ID、宗教、生物特徵、性傾向都列入被保護的個人資料範疇。
歐盟在法令制定階段已將 AI 運用納入考量,設定出個資保護四大原則:目的特定原則、資料最小化、透明性與課責性原則。
其中,「目的特定」與「資料最小化」都是要求資料的蒐集、處理、利用,應在特定目的的必要範圍內,也就是只提供「絕對必要」的資料。
然而,這與大數據運用需仰賴大量資料的特質,明顯衝突!
大數據分析的過程,往往會大幅、甚至沒有「特定目的」的廣蒐資料;資料分析後的應用範圍,也可能超出原本設定的目標。因此,如何具體界定「特定目的」以及後續利用的「兼容性判斷」,便相當重要。這也突顯出「透明性」原則強調的自我揭露(self-disclosure)義務。當蒐集方成為主要的資料控制者,就有義務更進一步解釋那些仰賴純粹自動化的決策,究竟是如何形成的。
「透明性原則的用意是為了建立信任感。」何之行補充。她舉例,中國阿里巴巴集團旗下的芝麻信用,將演算法自動化決策的應用發揮得淋漓盡致,就連歐盟發放申根簽證都會參考。然而,所有被納入評分系統的人民,卻無從得知這個龐大的演算法系統如何運作,也無法知道為何自己的信用評等如此。
芝麻信用表示,系統會依照身分特質、信用歷史、人脈關係、行為偏好、履約能力等五類資料,進行每個人的信用評分,分數介於 350-950。看似為電商系統的信用評等,實則影響個人信貸、租車、訂房、簽證,甚至是求職。
這同時涉及「課責性」(accountability)原則 ── 出了問題,可以找誰負責。以醫療場域來講,無論診斷過程中動用了多少 AI 工具作為輔助,最終仍須仰賴真人醫師做最後的專業判斷,這不僅是尊重醫病關係,也是避免病患求助無門的問責體現。
科技防疫:無所遁形的日常與數位足跡
當新冠疫情爆發,全球人心惶惶、對未知病毒充滿恐懼不安,科技防疫一躍成為國家利器。但公共衛生與人權隱私的論辯,也再次浮上檯面。
2020 年 4 月,挪威的國家公共衛生機構推出一款接觸追蹤軟體,能監控足跡、提出曾接觸確診者的示警。但兩個月後,這款挪威版的「社交距離 APP」卻遭到挪威個資主管機關(NDPA)宣告禁用!
挪威開發了「Smittestopp」,可透過 GPS 與藍牙定位來追蹤用戶足跡,提出與感染者曾接觸過的示警,定位資訊也會上傳到中央伺服器儲存。然而,挪威資料保護主管機關(NDPA)宣告,程式對個人隱私造成不必要的侵害,政府應停止使用並刪除資料。
為何挪威資料保護機關會做出這個決定?大體來說,仍與歐盟 GDPR 四大原則有關。
首先,NDPA 認為挪威政府沒有善盡公眾溝通責任,目的不清。人民不知道這款 APP 是為了疫調?或者為研究分析而持續蒐集資料?而且,上傳的資料包含非確診者個案,違反了特定目的與資料最小蒐集原則。
此外,即便為了防疫,政府也應該採用更小侵害的手段(如:僅從藍牙確認距離資訊),而不是直接由 GPS 掌控個人定位軌跡,這可能造成國家全面監控個人行蹤的風險。
最後 NDPA 認為,蒐集足跡資料原初是為了即時防疫,但當資料被轉作後續的研究分析,政府應主動說明為什麼資料可以被二次利用?又將如何去識別化,以確保個資安全?
換言之,面對疫情的高度挑戰,挪威個資保護機關仍然認為若沒有足夠的必要性,不應輕易打開潘朵拉的盒子,國家採用「Smittestopp」這款接觸追蹤軟體,有違反比例原則之虞。
「有效的疫情控制,並不代表必然需要在隱私和個資保護上讓步。反而當決策者以防疫之名進行科技監控,一個數位監控國家的誕生,所妥協的將會是成熟公民社會所賴以維繫的公眾信任與共善。」何之行進一步分析:
數位監控所帶來的威脅,並不僅只於表象上對於個人隱私的侵害,更深層的危機在於,掌握「數位足跡」(digital footprint) 後對於特定當事人的描繪與剖析。
當監控者透過長時間、多方面的資訊蒐集,對於個人的「深描與剖繪」(profiling)遠遠超過想像──任何人的移動軌跡、生活習慣、興趣偏好、人脈網絡、政治傾向,都可能全面被掌握!
AI 時代需要新法規與管理者
不論是醫藥研發或疫情防控,數位監控已成為當代社會的新挑戰。參照各國科技防疫的爭論、歐盟 GDPR 規範,何之行認為,除了一套 AI 時代的個資保護規範,實踐層面上歐盟也有值得學習之處。
例如,對隱私風險的脈絡化評估、將隱私預先納入產品或服務的設計理念(privacy by design),「未來照護機器人可能走入家家戶戶,我們卻常忽略機器人 24 小時都在蒐集個資,隱私保護在產品設計的最初階段就要納入考量。」
另外最關鍵的是:設置獨立的個資監管機構,也就是所謂的資料保護官(data protection officer,DPO),專責監控公、私營部門是否遵循法規。直白地說,就是「個資警察局」。何之行比喻,
如果家中遭竊,我們會向警察局報案,但現況是「個資的侵害不知道可以找誰」。財稅資料歸財政部管,健康資料歸衛福部管,界定不清楚的就變成三不管地帶。
綜觀臺灣現狀,她一語點出問題:「我們不是沒有法規,只是現有的法令不完備,也已不合時宜。」
過往許多人擔心,「個資保護」與「科技創新」是兩難悖論,但何之行強調法令規範不是絆腳石。路開好、交通號誌與指引完善,車才可能跑得快。「GDPR 非常嚴格,但它並沒有阻礙科學研究,仍然允許了科學例外條款的空間。」
「資料是新石油」(data is the new oil),臺灣擁有世界數一數二最完整的健康資料,唯有完善明確的法規範才能減少疑慮,找出資料二次利用與科技創新的平衡點,也建立對於資料二次利用的社會信任。
資料來源:https://www.inside.com.tw/article/23814-ai-privacy-medical?fbclid=IwAR0ATcNjDPwTsZ4lkQpYjvys3NcXpDaqsmE_gELBl_UNu4FcAjBlscxMwss
「倫理兩難例子」的推薦目錄:
- 關於倫理兩難例子 在 台灣物聯網實驗室 IOT Labs Facebook 的最佳貼文
- 關於倫理兩難例子 在 郭岱軒 Facebook 的最佳貼文
- 關於倫理兩難例子 在 CloudMile 萬里雲 Facebook 的最讚貼文
- 關於倫理兩難例子 在 社工倫理兩難短片《FBING》 的評價
- 關於倫理兩難例子 在 道德兩難例子在PTT/Dcard完整相關資訊 的評價
- 關於倫理兩難例子 在 道德兩難例子在PTT/Dcard完整相關資訊 的評價
- 關於倫理兩難例子 在 倫理兩難舉例在PTT/Dcard完整相關資訊 的評價
- 關於倫理兩難例子 在 倫理兩難舉例在PTT/Dcard完整相關資訊 的評價
- 關於倫理兩難例子 在 每天簡單學社工- Lowenberg, Dolgoff & Harington 的倫理決策 ... 的評價
倫理兩難例子 在 郭岱軒 Facebook 的最佳貼文
小直人不負責影評之早晨!動新聞
鬧鐘指在凌晨三點鐘,男主角是個中年男子,剛要起床。他原本是記者,後來轉作電視台的晨間娛樂資訊節目主播。電影將這位中年男主播一個上午,短短不到六小時的工作內容濃縮放送。
新聞跟娛樂資訊的競合,是大眾傳播(或新聞學)其中一個最常被討論的議題。不管是韓劇「皮諾丘」,或好萊塢電影「麻辣女強人」(Morning Glory)都有觸及新聞領域在供給內容時,恆久的兩難:新聞到底是要給觀眾「需要的」內容,或「想要的」內容?
「需要的」通常是比較生硬、嚴肅的新聞議題,如同小直人主跑的黨政、國會新聞。「想要的」很好舉例,諸如娛樂、體育、生活消費等軟性的題材。從電影「早晨!動新聞」中,「早安秀」節目的編採會議就可以稍微知道,新聞節目素材怎樣區分軟硬。
藝人男女情愛跟內閣官員收賄,您覺得你對哪個比較有興趣?換個例子來說,也許政院前瞻計畫公聽會的直播,可能不及一對情侶對著手機直播當街吵架來的有吸引力與話題性。觀眾「想看的」未必是「需要看的」新聞。
全程直播的LIVE節目已經不稀奇,現在稀奇的是,怎樣在直播節目上面推陳出新,來力挽觀眾的關注力,影片中男主角兒子嘲笑爸爸工作是一早在電視機鏡頭前「吃吃蛋糕、瞎胡鬧」。不過這天的節目卻跟一件拿炸彈步槍挾持咖啡廳人質的社會事件強碰。如果你是新聞部長官,你會做什麼決定?停播節目改新聞特報?或節目照on但配合新聞時事做大更動?
在節目不能停止的狀況下,主播配合嫌犯要求到犯罪現場,並且與犯人交涉對話,這中間也牽涉了許多新聞倫理的問題。例如,主播可以用隱藏式攝影機播出交涉過程嗎?另外主播適不適宜跟犯罪者交談?如多年前犯下白曉燕綁票案的陳進興,挾持南非武官,有電視台主播要求陳進興大唱「兩隻老虎」、還問他「何時要自殺」成了後來新聞的活教材。新聞訪問的技巧與主播臨場反應真的需要經驗與磨練。
而電影中一段極具爭議的橋段(以下大雷請謹慎閱讀),挾持咖啡店的兇嫌與警方對峙,節目挪用電視投票程式,即時調查電視機前觀眾,到底這名犯人該死還是該活下去?即時電視民調的結果出人意表,但如果你是電視製作人,你會不會選擇用這樣的方式報導?又結果出來你又該怎麼樣呈現,才不會造成悲劇(如觸怒犯人造成人質傷亡或嫌犯自裁)?
男主角在電影中曾被質疑新聞造假,在颱風天採訪的現場,直播時切換畫面,剛好是男主角拿泥巴塗在自己臉上大笑的畫面,觀眾如果此時看到這樣的狀況,會怎麼想?覺得現場記者演很大?但如果看了電影,後頭去深究原因,可能大家想法又會不同。
最終這個不被正統新聞正眼一瞧的娛樂資訊節目,竟然在這個社會事件取得大獨家,不只有獨家畫面、犯人獨家訪問,更有第一手的消息。這樣的節目也扮演著新聞傳播的角色。看你怎麼樣去判斷「新聞品質」和「新聞品味」。
#小直人不負責影評 #早晨動新聞 #早安秀 #新聞 #倫理 #大眾傳播 #直播
倫理兩難例子 在 CloudMile 萬里雲 Facebook 的最讚貼文
AI時代的變革比每一次工業革命都快!李開復博士在達沃斯世界經濟論壇的人工智能焦點論壇上談到,人工智能的未來將預見未來的大規模的職業轉移和人力重新佈署。但同時人類將有更充裕的時間體驗更優質的娛樂(舉例:虛擬實境)。
【AI時代的變革比每一次工業革命都快】
達沃斯時受邀與MIT Media Lab(麻省理工學院媒體實驗室)負責人伊藤穰一(Joi Ito)在達沃斯世界經濟論壇閉幕日的人工智能焦點論壇上探討人工智能,本文由創新工場工友根據現場錄音整理。
——————————————————
對談嘉賓:
李開復博士,創新工場董事長及CEO、創新工場人工智能工程院院長
伊藤穰一(Joi Ito),MIT Media Lab(麻省理工學院媒體實驗室)負責人,曾任Creative Commons CEO、Six Apart日本分公司主席、風險投資公司Neoteny創始人兼CEO
主持人:
蒂姆·布拉德肖(Tim Bradshaw),《金融時報》駐舊金山科技記者
————————————————————
主持人蒂姆:今年我首次來到達沃斯參與世界經濟論壇,感覺人工智能(Artificial Intelligence,以下簡稱AI)在今年大會已然成為炙手可熱的焦點。現在當人們談及AI和它所引發的生產力進步時,往往會一道談及AI可能引發的倫理和政治議題,甚或爭辯AI的終極價值。我希望今天咱們能換一種觀點來討論AI。
伊藤:我覺得AI確實變的熱門了,這種變化從去年底開始,2016年是非常重要的一年,連許多非計算機領域的科學家都開始提出他們的觀點,而非像過往單純質疑AI。
李開復:的確,如今AI已經被全社會所更廣泛地接受了。人們開始認識到,AI正在為現實生活服務。自2016年初AlphaGo戰勝李世石一役,為大眾揭示了一個無法否認的事實,那就是AI確實能以極高的效能掌握特定垂直領域。AI能夠為我們的生活提供許多超越當前產品與服務水平的解決方案,AI能開始正式為人們提供服務。
圖:AlphaGo VS 李世石
蒂姆:所以,您認為這項變革的動力來自技術領域,還是外在的實體環境?
李開復:我認為它屬於技術引領的變革。數十年來,人們普遍把AI視為一項技術,確實在AI發展的同時,經濟、政治等外在環境也發生了一些改變,但我不認為實體環境的改變和AI技術的發展具有直接相關性。
蒂姆:前不久,IBM與微軟都捲入了一項重大討論,那就是AI技術是否會對人們現有的工作造成威脅,人們是否會因此失業?他們認為,AI的目的是增強人類的智能,而非替代人類。兩位認為上述論點成立嗎?
伊藤:所有事物的價值都需要經過長時間的檢驗,而並非一段短暫時間內的觀察。宏觀角度來看,我們無法否認人們會因「新技術總會導致人們失業」而恐慌,但隨著新技術的發展,某些領域又會誕生新的工作。例如在美國,高中畢業生如果想當護士,就必須就讀社區大學考執照,而AI技術能夠達到護士必須學習的操作流程技能,使得費時且昂貴的職業資格考試變得不那麼重要。護士這一職業還將存在,但將不再受限於繁瑣的操作任務和流程事務,對於想從事護士一行的人來說,這是一大利好。對於許多職業而言,立刻要談立即被AI技術取代還言之尚早。但是顯然,許多工作領域的問題正被解決也正被改變。
主導AI技術研發的各大科技巨頭,如果能為人們樹立一種正確的態度,驅散人們心中對AI技術的恐懼,也將會是一大利好。畢竟人們對AI技術的恐懼,絕大部分來自於對於AI的不解。
要消除恐懼,我們需要在兩個方面努力,其一,是消除人們心中情緒化、非理性的恐慌心理;其二,則是理性解決問題。例如,我們必須對當前的教育體系,以及職業資格認證等體系進行改革,這取決於未來機器發展的速度有多快。
在接下來數十年甚至很長時間內,AI技術都將會不斷發展。但現實是,我們的教育體系和人才市場仍然一成不變。我預見各項既有制度的僵化與缺乏彈性,將成為比AI技術本身更大的阻礙。
李開復:大體上我同意,不過我認為,我們需要更為急迫的喚醒社會集體意識來理解並準備AI時代的到來。
當今時代變革的速度,比以往任何一次工業革命時期都要快。隨著AI技術的不斷完善,越來越多的工作如今開始被AI技術取代。舉例來說,中國有一批AI創業公司正在研究人臉識別,這類技術已能批量辨識20到30萬張人臉,這是一般人類不可能達到的量級和精准度,諸如保安、邊防等從事辨識任務的從業人員,也勢必會被取代。在另外一些領域,AI處理人際和人機關係的能力確實還不如人類,醫療行業是最好的例證,醫療檢測中的某些涉及影像識別的崗位很快也會被AI技術所取代,但那僅僅是醫療專業的一小部分。
圖為曠世科技face++人臉識別自動解鎖
所以大體上來說,人們的工作必須具備足夠的深度,需要讓自己強大到不會輕易被機器所撼動。我不認為現在正在從事這類有足夠深度工作的人們,會輕易被AI取代。
當前有兩項重大的任務等著我們去解決。其一,是思考如何調配未來二十年大量被AI技術替代的工作者;其二,是我們的教育亟待改革。我們需要對我們的子女、下一代子女進行再教育,分析哪些工作不會被輕易替代,而不僅僅去幻想從事目前看似光鮮亮麗的工作。
投身服務業可能是其中一個選擇。我們希望能鼓勵更多人參與人際間的交往互動,建立機器人與人類的交流溝通模式,並不是所有人都能做到這一點,而這些對於服務行業來說至關重要,AI技術能夠使未來的服務業更被人們期待和尊重。
伊藤:日本人對於服務行業的看法就很有意思。日本人認為,服務業是與人打交道的工作。在日本很少有人帶著好萊塢夢,為了將來成為明星而在餐廳打工,他們單純就是喜歡在餐廳工作、熱愛著他們的顧客,這樣的態度完全刷新了我個人對於工作價值的認知。
我們有必要重新設定價值的評價體系。過去我在日本的時候,日本還是一個經濟發展至上的國家。但如今,人們的觀念已經發生了很大轉變。在以前,工作只是為了獲得金錢,而金錢是衡量一個人是否成功的標準。
但如果你基於你對工作技藝的精通程度去評價你是否熱愛這份工作,同時改採你對工作的熱愛程度來衡量成功,那麼很多被歸結為服務行業的職業其實都相當成功,服務本身可能談不上偉大,也不在創造什麼新事物,但這些當下從事的工作讓你明確目標,支撐著你的生活結構,讓你找到人生的意義。
我們應當少關注一點工作產出的經濟效益,而更關注工作的目標和意義。舉例來說,育兒應當是國家GDP的組成部分,而不是像現在這樣只被視為家務,養育下一代對全社會而言至關重要,如果每個父母都能在育兒領域多花些時間,社會將會變得更好。我們在比較人和機器的勞動產出時,多半僅僅用勞動價值和工時長短來衡量人類的產能,卻忽視了工作背後潛在的社會價值。這也是為何許多非計算機領域的科學家自去年起,也開始提出他們的觀點。
李開復:另外一個重點在於,人類的工作進入了一個新的層次。人們在競爭中,將選擇更好的雇主和工作,同時取得工作技能與深度上的提升,逐漸成為各類專業能手和頂尖人才,甚至最後成為特定領域的首席科學家、最有價值的金牌球員、最受饕客追捧的明星大廚等。
但機器也擁有著屬於它的全新定位。我們要做的是去思考在AI時代來臨之際,如何保留一手的經驗,如何為人類提供成長的空間,從而創造更多的就業機會,為人類共同的未來找到更好的解決方案。
蒂姆:那麼隨著AI技術的普及,社會上的職業構成、各類職業對經濟貢獻的性價比會不會隨之改變?例如,一個人周遊世界開另類雜貨鋪,會不會比在辦公室當一名白領賺得多?
伊藤:這正是另一個關乎整體經濟的重要問題。 如果AI真能把整體社會的生產力無限提高到一個極其充沛的程度,那很多人可能根本就不願意繼續從事現在的工作,如今包括政府公務員在內,很多人在崗位上過度勞動,薪水卻巨低無比。這些職業的確需要政策扶持和薪酬相關的補助,才能鼓勵人們考慮選擇那些看似低回報的工作。
古希臘的雅典城邦就是一個例子。當然我們現在沒有那時代的奴隸制,但想象我們處在一個充滿了藝術家、哲學家的社會,那時公民們關心的,會是資源分配是否公平、收入是否均等。這並不意味著我們不再需要工作,否則就太不符合現代的經濟法則。社會仍然需要人類勞動力,但人們將變得更富裕、更能投身內心真正渴求的工作,將會有更多的音樂家能心無旁騖專注他們熱愛的創作、廚師們方能每天精心烹調讓人贊嘆的美食,他們周遭人們的生活體驗,將會因此更為多彩豐富。
蒂姆:說到剛才的音樂家,如今他們掙錢的道路似乎更辛苦了。您覺得該由誰來支付這種額外收入?是政府?還是科技公司?
伊藤:目前的音樂行業,正隨著流媒體技術、更趨完善的數字版權制度蒸蒸日上,可預見的是,數字音樂不會在近期沒落,產業規則和行業規模隨著技術平台而生了重大變革,整體音樂行業反而是在上升的。但是,我預見音樂產業各種獨家約束制度仍然是個發展瓶頸。上世紀後期,在電視和傳統音頻媒介當道的時候,巨星經濟、高銷量唱片和企業壟斷形成了當時的市場格局。但現在,這種體系已經過於複雜、而且不符合當今以技術平台為主流的發佈體系。
李開復:不僅是音樂行業,其他的行業也存在著明顯的問題。例如,專欄作家和記者們的前途也值得憂慮,他們依循傳統媒體遊戲規則都曾經歷過獲利頗豐的年代,而對於新的技術平台分發規則、更為AI自動化的媒體模式他們仍未做好準備,記者編輯們的專業地位也需要被重新檢視與定位。未來型的AI技術公司將有機會賺得較高的經濟收益,這些創新公司甚至能和前沿政府緊密合作,共同為未來世界的工作結構和薪酬制度,進行前瞻的規劃和準備。
我們過去專注在培養數理化人才,為了訓練符合上個時代需求的工程師、醫師、會計師、律師等等專業人才,我們已經投資龐大的社會資源,導致很多人打從學習階段其實就開始偏離了他們的核心潛能而毫不自知。在不久的未來,許多工作都能被機器取代,人們將從這種演進中被釋放,真正投入我們擅長、我們熱愛的領域。
蒂姆:讓我們再來談一下當前AI技術帶來的經濟收益。由於AI技術對於大數據存儲、從業人員技能、輔助設施研發等領域提出了高門檻的要求,是否因而大部分收益都將集中在屈指可數的幾家大型科技公司中?對於其他小型的創業公司,由於缺乏機器、缺乏數據集,AI技術的研發成本無疑是巨大的,您認為AI技術對經濟結構有什麼影響?
李開復:我覺得目前的體系會持續促使大型科技企業不斷發展。他們有能力壟斷資源、壟斷數據,在商業利益和激烈競爭的驅使下,他們會不斷競逐更為精進的技術能力,為公司賺取更大的利益。對於較小企業,進入AI市場的難度的確比移動互聯網時代的創業高出非常多。
我呼籲行業需要大力推動AI生態系的開放性。創新工場北京總部和我們所投的創業公司體系中,已經啓動了全新的AI技術相關研發工作,近期我們成立了人工智能工程院,帶著孵化中國AI生態系的目標投入大量資源,招聘培訓一批年輕工程師入門AI領域,展開可公開數據集的採集和標注,我們也積極尋求在中國和全球資本市場的融資和成長機會。
全球AI競技場上,美國市場有Google、Facebook、微軟,中國市場有百度、騰訊、阿里巴巴等行業巨頭,激烈的市場競爭導致他們的技術極低程度會考慮開放出來,創新工場希望能夠借此成為AI領域開放發展的倡議者和實踐者。
蒂姆:我們之前提到,誰擁有數據上的優勢,誰就擁有敏銳的洞察力和創新能力。那麼非技術型公司什麼時候能夠真正採用AI技術,亦或是只能運用像IBM、Google、微軟等公司的平台?
伊藤:隨著世界愈發緊密互連,要以「贏家通吃」的玩法去壟斷市場是越來越難。現在,如果某個個體試圖進行壟斷行為,會自動觸發市場機制。市場競爭會形成限制:如果某方採取壟斷動作,對標競爭的另一方會花數百上千萬美元去找到超級優秀的AI博士們來迎頭趕上。現今人才培養的源頭已經到位,但我擔心,當某個企業實現了壟斷甚或做上了寡頭的時候,自然而然能順勢招募AI領域的全球才俊,吸引能夠負擔他們百萬美金酬金的投資人,種種多方因素都正匯聚在一起。市場單方面依賴競爭機制進行調節並不完善,因此,我對開復和創新工場在中國推動的開放做法特別感興趣。
接著我想說下一個經典的「電車難題」,雖然看起來有點偏題,但其實這個跟我們的討論挺相關的。這個研究大概就是詢問人們,如果街上一輛滿載乘客的電車馬上就要撞上一大群人,它應不應該立刻轉向,犧牲車內乘客的生命,還是放任讓車輛撞上人群。結果大多數的人都說,當然應該犧牲車內乘客的生命來保全更大一群人。但如果按照這個標準設計一輛無人駕駛汽車,你們會不會買具備這種人性道德的汽車?我是肯定不買。所以其實這就意味著,當我們只把責任交由市場機制,人們普遍都是自私的。
而且,就像開復所說的一樣,資本主義的市場競爭是不會激勵大家分享數據、資源和市場的。傳統的政府監管方式過去曾經行之有效,但在面對互聯網的開放和動態結構,這種傳統的監管方式將會失效。現在這些AI、比特幣和其他所有領域中的問題,都不是過去十年二十年間學者們研究的題目,而是真正在資本市場能夠快速賺錢的技術。然而相較於開放的互聯網,行業不曾充分在開放場域來探討這些技術衍生的問題和現象,這是我的擔憂所在。
李開復:我們倒是嘗試採用實務並直接一點的方法,用大公司跟大公司來抗衡。比如某巨頭企業說他們能夠提供數百萬美金的資金,另一家巨頭企業便說我們可以提供一個昂貴的開放平台。我們不知道這個方法是否有效,但畢竟我們都是敢於冒險的資本家,這個策略肯定是值得嘗試的。作為風險投資家,我們理解商場上凡事皆求回報,我們試圖串聯各方利益點,聚合成一條具有共通性的利益鏈條。
蒂姆:現今大家都能看到AI產出已經開始變得極具說服力,那麼投入方面狀況如何?誰在編寫、改進算法,我們又怎麼知道這些算法何時會被使用?AI技術的透明性又如何?市場能否避免AI這樣的黑科技遭受偏見誤區,或者避免AI技術被濫用?
李開復:我覺得目前有些公司採取所謂公開透明的做法,其實是很討喜的宣傳手段。但我也確實擔心,下面這種兩難問題會不會出現:一些公司選擇通過自律或推動立法來限制錯誤發生,但另一些公司不會這麼做。自然而然,比較規範自律的公司由於發展顧慮更為周全,相對發展速度上可能放緩;而較不顧慮錯誤發生的企業,反而可能成為最快速或最成功的那一方?
例如在無人駕駛技術的開發上,Google很小心謹慎,把保護駕乘人員和行人放在了極其重要的位置上,技術不成熟就不推廣;相反,特斯拉的AutoPilot就很激進,會直接把測試版產品拿給公眾進行試驗。然而現在看來,特斯拉造出好無人駕駛車的可能性還要更大一點。所以這個難題對任何規模、任何階段的企業,都是一個道德層面的決策。
伊藤:偏見同樣會影響到產品開發。曾經有某家企業開發麵部識別系統的時候,僅用他們自己的工程師作為訓練數據庫的模板,但發佈演示產品的時候,這個產品竟然認不出一位黑人女性的臉,正因為他們的工程師全都是白人男性。很多偏見,是你在日常職場中不容易意識到的。
過往許多公司會去蒐集信息、理解客戶,然後給出個解決方案。如果要做一個真的對社會有益、解決問題的架構,就只要想著把這個工具做得更好、更有用就可以了。我喜歡舉會計和電子錶格的例子,在VisiCalc發佈以後,這個蘋果公司自己都不知道該賣給誰的軟件出乎意料獲得會計行業的巨大歡迎,這讓他們欣喜萬分。於是他們在VisiCalc中投入了更多的靈感,VisiCalc 的開發者都沒有設想過它有如此多的可能性。
我們需要的不是企業銷售人員出去收集客戶需求,然後回頭要求工程師做出什麼,我們需要的是賦予人們自己打造這些工具的能力,這不會是目前主導AI領域那些科技巨頭的商業模型和運作方式,反而更可能來自像開復您所投資的實踐型的創業者。
蒂姆:數據和最終的成果歸屬之間是否有條清晰的界限呢?比如說如果某個商業公司使用Google的演算法找到公共部門數據中有利可圖的部分,例如運用某些醫療數據而大賺一筆,會發生什麼?會因為來源是公共數據而把這樣得來的利潤回報給政府呢,還是因為用了Google算法而成為其產品的一部分呢?畢竟沒有公共數據就不會有這一結果,目前這些數據相關的行業規則是如何制定的呢?
李開復:我感覺我們正站在一道門前,正打開去探索一個美麗勇敢的新世界,針對上述問題其實行業還沒有定論,也應該好好充分研究一下這個問題。
伊藤:看來科技巨頭們有一套針對現存數據庫、獲取數據的戰略。Google、Facebook或中國的百度、騰訊當然都會收集大眾的數據、從公共的數據中試圖做出成果。但很顯然個人電子郵件就不是公共數據,想要購買這些數據也是不可能的。也有很多人爭論是算法重要還是數據重要,顯然兩個都十分重要,但不同企業由於其業務屬性的側重,將會有不同的選擇。
蒂姆:我在這星期聽到許多關於人工智能未來是不是真的能帶來巨大收益的相關討論,比如增加稅收,幫助政府能讓所有人都開心地生活還不用工作。你覺得AI能緩解社會焦慮、解決其他情況下可能會出現的不平等問題嗎?它會是我們期待的那個靈丹妙藥嗎?
李開復:應該說這是必然的,在可預見的未來大規模的職業轉移即將發生,人才與人力需要重新部署,在AI驅動的工作形態改變之際,有兩部分我自己特別關注:一是孩童和成人的教育體系,舉例前面提到的音樂家、育兒等都將更能彰顯其價值,目前各項專業教育和技能培訓需要檢視其未來的適切性。二是人們有更充裕的時間來體驗享受更優質的娛樂,娛樂行業比如虛擬現實(Virtual Reality)在未來勢必更為百花齊放。
蒂姆:這是場非常有意義並非常有趣的對談,十分感謝你們參與。
倫理兩難例子 在 道德兩難例子在PTT/Dcard完整相關資訊 的必吃
[PDF] 道德兩難案例- 臺灣學術倫理教育資源中心案例:邀請學生設想,自己目前正面臨畢.道德兩難情境-2021-04-19 | 遊戲基地資訊站2021年4月19日· 道德衝突例子道德困境 ... ... <看更多>
倫理兩難例子 在 道德兩難例子在PTT/Dcard完整相關資訊 的必吃
[PDF] 道德兩難案例- 臺灣學術倫理教育資源中心案例:邀請學生設想,自己目前正面臨畢.道德兩難情境-2021-04-19 | 遊戲基地資訊站2021年4月19日· 道德衝突例子道德困境 ... ... <看更多>
倫理兩難例子 在 社工倫理兩難短片《FBING》 的必吃
社工 倫理兩難 短片《FBING》|Social Work Ethics Dilemma Short Film “FBING”. Watch later. Share. Copy link. Info. Shopping. Tap to unmute. ... <看更多>