分類
人工智慧

新AI職業誕生:人工智慧檢查官

AI大浪潮來襲,Gartner大中華區資深合夥人龔培元(Michael Kung)今(4)日指出,預期2023年將有75%大型組織會雇用「人工智慧檢查官」,針對非法行為、隱私、客戶信任等面向監督,幫企業降低風險。

他指出,人工智慧跟機器學習技術發展,將使人類決策力大提升,未來「超級自動化」及「自主物件」將成為企業轉型利器,但也因為網路串連更緊密,遭受惡意攻擊度也提高,帶來新的企業風險。

靠AI決策,企業人才荒將爆發

Gartner資深研究總監呂俊寬(CK Lu)也分享,2022年將有30%企業靠AI做決策,目前調查,平均一間企業手上有3個AI專案,但預計5年內企業導入的AI專案將倍增至30件,所需要花費時間將數十年,這其中關鍵問題是AI科學家太少,無法應付太多AI場景,所以企業必須讓AI技術不強的員工也加入專案協助。

提到AI前景,呂俊寬表示不得不提到「Shadow AI」這個觀念,這是指企業根本不知道的AI訓練,由員工自行研發,現在企業非常欠缺AI規範,員工自行做的AI訓練是否合規?所取得的數據來源合法嗎?企業掌握度並不高。

為了規範AI模型,部分科技大廠已經建立AI計畫平台,讓數據跟模型都公開透明,類似建立一個AI廚房供各部門使用。

針對AI興起帶來的隱私權跟安全性問題,各國都給予高度重視,新歐盟執行委員會主席馮德萊恩(Ursula von der Leyen)12月上任,也宣示將在就任後的一百天內推出規範人工智慧(AI)及大數據應用的新法,加強管理AI機制。

不過如何監管AI是一個難題,近期社會上出現許多AI演算法大規模失誤造成的人身安全危害事件,比方自駕車撞死人,引起市場廣泛注意。若要保護大眾不被演算法影響,就必須追究演算法失誤的法律責任,而指定相關法規也會延長人工智慧跟機器學習演算法發展週期,企業人力的培訓跟認證將更花時間。

 

AI技術之專利適格性最難克服

針對AI技術申請專利的問題,劉芳認為最重要的是搞清楚外在的表徵及內在的技術點,在搞清楚以後,日後在維權時如果出現問題,會比較容易拿捏。在技術外在表徵部分,通常是輸入海量資訊,然後出來讓人驚艷的結果。至於技術的內在表徵,劉芳將之分為兩部分,分別是軟體和硬體。軟體部分就是模型及模型的訓練,這一定是在後台操作的;而硬體的部分則是晶片結構,其中涉及算法的優化和指令集。這樣的技術在實現方面比較有難度,主要原因是「看不到」。另外一個更重要的問題是人工智慧技術的開發是分階段的,而日後在維權及訴訟上,會面對更大的困難。

企業大量導入AI,「人工智慧檢查官」職位興起

當企業大量引用AI專案,就需要注意 數據偏差 ,因為對AI而言,事物沒有常識與否的問題,一切都是數據導引出來的結果,然後就會毫不思索的執行,所以餵給AI的數據好壞,將為企業帶來正面效益,同時也可能面對負面挑戰。數據偏見將會導引出隱私權跟種族歧視等問題,讓企業不知不覺走向非預期方向。

※本文章屬於TNZE天擇集團所有嚴禁轉載※