掃碼下載APP
及時接收考試資訊及
備考信息
本文編譯自GARP風險智庫Disruptive Technologies主題博客“Risk Management and Generative AI: A Matter of Urgency”一文。作者為Jim Wetekamp, 他是 Riskonnect 公司的首席執(zhí)行官,該公司是綜合風險管理軟件的領先供應商。他是公認的企業(yè)風險、供應鏈和第三方風險管理專家。
只有 9% 的公司認為他們已經(jīng)為管理生成式人工智能風險做好了充分準備。
各機構仍在摸索需要哪些生成式人工智能的保障措施。事實上,只有 17% 的機構已經(jīng)正式對整個公司進行了關于生成式人工智能風險的培訓或介紹。但是,盡快掌控人工智能治理和風險管理符合機構的最佳利益。
目前在工作中使用人工智能的員工之中,有一半以上是在未經(jīng)雇主批準的情況下使用的。員工渴望這些工具帶來的效率。在許多情況下,員工在雇主弄清楚政策之前就開始在工作中使用這些工具,這會給機構帶來風險。另有 32% 的員工預計很快會將生成式人工智能納入他們的工作流程,這表明無論公司如何監(jiān)督,員工都會繼續(xù)采用這些工具。
現(xiàn)在是時候制定一些規(guī)則,以確保您的機構能夠將這種新興技術看作價值和效率的驅動力,而不是將其視為風險的源泉。
機構可以采取幾項措施,讓員工可在應用生成式人工智能的同時保護機構免受潛在威脅。
65%的公司表示,數(shù)據(jù)隱私和網(wǎng)絡安全問題是生成式人工智能工具的首要問題。這些工具通常會收集 IP 地址和瀏覽活動等敏感信息,從而導致個人身份被識別。如果數(shù)據(jù)處理不當或被列入數(shù)據(jù)泄露事件,就會造成巨大損失。
深度偽造技術的興起引發(fā)了更多擔憂,因為它可以在未經(jīng)本人同意的情況下創(chuàng)造出逼真的圖像和聲音。
人工智能工具還使犯罪分子能夠創(chuàng)建更復雜的網(wǎng)絡釣魚電子郵件和惡意軟件,并加速網(wǎng)絡攻擊。定期評估您的網(wǎng)絡安全戰(zhàn)略,確保其與人工智能的發(fā)展同步,并優(yōu)先考慮強大的數(shù)據(jù)隱私措施,如數(shù)據(jù)匿名化和加密。
即使沒有足夠的信息或內(nèi)容來提供準確的答案,一些生成式人工智能工具也會對提示做出回復。在這種情況下,人工智能算法會編造出一個答案,但仍會以肯定的口吻作出回應,這意味著你不能對所看到的內(nèi)容信以為真。
如果使用工具的用戶沒有牢記這一點并主動檢查回復的有效性,他們最終可能會根據(jù)不準確的信息做出決策,而 60% 的公司表示這是生成式人工智能的首要問題。這可能會導致聲譽問題和其他后果。
人工智能算法的開發(fā)者可以設定有多少答案是編造的,或者是否有答案是編造的。了解機構正在使用的工具是如何開發(fā)的,并決定機構愿意接受的誤差范圍。通常最好將誤差范圍設置為零,這樣模型就不會編造答案。沒有信息總比誤導性信息要好。
此外,優(yōu)先考慮引用信息來源的生成式人工智能工具,這樣用戶就能輕松驗證所提供信息的準確性和可靠性。確保您的人工智能政策設定了這樣的預期:用戶在傳遞信息或根據(jù)信息做出決策之前,一定要對人工智能生成的任何回復進行事實核查。
人工智能模型可能存在固有的偏見,或者對其服務對象的群體不夠包容。這些算法利用歷史數(shù)據(jù)為決策提供依據(jù),并生成答案和內(nèi)容。這可能會帶來問題,因為在1970 年、1990 年、2010 年或 2018 年可以接受的事物與今天可以接受的事物是不同的。例如,如果人工智能模型使用幾十年前的歷史數(shù)據(jù)來做出當代決策,比如誰有資格獲得貸款,那么它可能會無意中反映出不公平的做法。
徹底評估您正在使用的人工智能模型。了解模型的編程方式和校準機制。主動質疑和理解底層的訓練數(shù)據(jù)集。確保數(shù)據(jù)是最新的,并且反映了當今的社會標準。
重要的是,要持續(xù)監(jiān)控生成式人工智能的輸出,并確保從倫理和道德的角度來看,應對措施仍然具有相關性,并且符合機構的政策和文化。
34%的公司對生成式人工智能相關的版權和知識產(chǎn)權(IP)風險表示關注。這些模型可能是在受法律保護的資料基礎上進行訓練,并生成類似于現(xiàn)有作品的內(nèi)容,如果用戶不給予適當?shù)氖跈?,就會導致潛在的版權、商標或專利侵權問題。法院正在探討如何將知識產(chǎn)權法應用于人工智能生成的內(nèi)容,但仍需要一段時間來解決這個問題。
保護您的知識產(chǎn)權。對員工進行培訓,讓他們對輸入人工智能工具的信息進行批判性思考。了解哪些員工和合作伙伴可以訪問您的知識產(chǎn)權和敏感信息,并制定明確的指導方針,規(guī)定哪些資料和數(shù)據(jù)不得輸入人工智能模型。
確保員工也注意如何將人工智能生成的內(nèi)容用于商業(yè)用途,以避免侵犯版權。及時了解并告知員工有關使用人工智能生成內(nèi)容的任何法律動態(tài)。
生成式人工智能的出現(xiàn)帶來了新的挑戰(zhàn)和機遇。生成式人工智能所帶來的效率使員工能夠專注于創(chuàng)造高價值的工作。
預計這項技術每年將為全球經(jīng)濟增加 4.4 萬億美元的價值。要獲得這些好處,公司需要更有效地掌握人工智能的風險,并有效地管理其使用方式?,F(xiàn)在就開始保護和升級您的業(yè)務。
以上內(nèi)容來源于GARP,如有侵權請聯(lián)系刪除。
上一篇:北京有FRM持證人福利政策嗎?
Copyright © 2000 - yinshua168.com.cn All Rights Reserved. 北京正保會計科技有限公司 版權所有
京B2-20200959 京ICP備20012371號-7 出版物經(jīng)營許可證 京公網(wǎng)安備 11010802044457號