有没有人加QQ看B的QQ号,武汉茶会会所,西宁免费吃饭,广州市黄埔区大沙地

<dfn id="66hot"><s id="66hot"><listing id="66hot"></listing></s></dfn>
<big id="66hot"></big>

<center id="66hot"></center>

  • <object id="66hot"></object><code id="66hot"><small id="66hot"><track id="66hot"></track></small></code>

      <big id="66hot"><em id="66hot"><track id="66hot"></track></em></big>
    1. 新聞資訊

      <返回

      將道德準則納入人工智能

      來自2020-04-16



      隨著人工智能(AI)正日益廣泛的應用于商業中,給企業管理者和財務專業人士帶來了不少挑戰。將人工智能系統引入企業所帶來預期的技術、法律及合規等問題的同時,也會帶來道德規范問題。例如,我們會通過使用人工智能公平地對待客戶,還是我們可能會歧視某些群體?

      盡管管理會計師并不是實際編寫算法和構建人工智能系統的專家,但他們具備重要的專業技能,并且憑借在組織中所處的有利地位,可以確保以符合道德規范的方式在實施AI方面發揮關鍵作用。這點對組織而言是很有利的。

      管理會計師的技能對于財務部門實施人工智能解決方案至關重要,不僅如此,這些技能還可以在整個企業業務范圍內評估人工智能能否有效使用發揮作用。

      以下是財務專業人員可以采取的一些關鍵措施,以確保道德原則嵌入組織對人工智能的使用中。

      建立價值觀

      微軟首席執行官SatyaNadella在2018年公司的主題演講中提到:“我們需要知道的不僅僅是計算機能做什么,還應該知道計算機怎么做。”了解為什么人工智能會被提議作為一個特定挑戰或難題的解決方案,以及與繼續采用非人工智能解決方案相比會產生什么樣的影響。這可能包括財務成本或費用降低因素,以及其他更多的因素,如對工作的影響、聲譽風險或最終用戶體驗的改善。

      除此之外,公司還應考慮他們所重視的道德原則,以及如何確保任何人工智能的應用都能反映這些價值觀。這可能包括承諾只使用有利于整個社會的人工智能,確保人工智能在實施之前是公正的,或者確保那些受人工智能決定影響的人能夠對結果提出質疑。

      MichaelHobbs是總部位于倫敦的初創企業Republe.Ai的創始人,他表示,他們公司認為使用人工智能會違反九項道德原則!瓣P鍵在于盡早提出正確的做法并定義道德原則。這可以通過確保從解決方案一開始就將道德規范納入到流程中,從而避免問題的產生!

      在設定這些道德原則時,管理會計師可以發揮很多作用。他們基于公司業績和戰略的了解以此對確定引入AI解決方案的應用范圍至關重要。同樣,他們對人工智能應用的客觀性承諾CIMA的道德的基本原則之一將有助于他們不受外界壓力的影響,根據他們的判斷對AI解決方案盤根問底,對在其他領域的工作人員提出探索性的問題。

      鼓勵透明度

      司內部的利益相關者和最終用戶或消費者共同面臨的一個問題是,缺乏對如何使用人工智能的理解。

      如果該公司的人工智能解決方案受到質疑,而且無法快速明確地解釋某個結果的細節說明,那么公司對該解決方案實施的可信度將很快喪失。在最近的一個被指存在性別歧視的AppleCard案例中,從公眾的抗議和調查表明,當組織無法快速解釋他們如何設置那些算法并以此作出決定進行運作時,可能會對組織聲譽造成損害。

      由于管理會計師具備降低風險的知識,他們可以在確保構建和實施人工智能解決方案的階段成為非常關鍵的一員。

      公司必須能夠清楚地說明基于使用了哪些數據,及應用了哪些假設后所做的決定。Hobbs認為:“關鍵在于,公司能夠告訴人們,他們需要采取不同的行動才能獲得不同的結果!

      從微觀層面解釋決策對企業也很重要。一個企業的聲譽不僅會受到主流媒體報道的影響,還會受到社交媒體上的口碑和個人的影響。例如,最好立即向被拒絕貸款或抵押的客戶提供信息,向他們解釋為什么會是這個結果,從而給他們提供選擇方案。

      管理會計師應主動提出有關設計和構建人工智能的建議,并確保在任何時候都能清晰地理解輸入、決策過程和輸出。在運行測試或試驗時,請開發人員解釋算法所遵循的決策過程。如果他們不能用通俗易懂的語言解釋普通消費者能夠理解的問題,那么就需要在流程進一步深入和組織面臨聲譽風險之前解決這個問題。

      確保問責制

      對于使用人工智能的公司來說,一個主要的失敗點可能是缺乏明確的責任!瓣P鍵在于,要確保在組織內的管理鏈中了解算法決策,并有明確職責分工。公司必須對算法做出的任何決定擁有所有權!盚obbs說。

      商業道德研究所在其報告《數字時代的企業道德》中總結道:“最終,必須始終有人的責任”。IBE報告特別強調董事會對人工智能的部署有足夠的了解,以便能夠決定人工智能方案是否正確,并且在出現問題時能夠勇于承擔責任。

      正確的做法是,管理會計師很可能成為問責過程的核心。首席財務官和高級財務經理最終要對所有與財務相關的決策負責,包括那些由人工智能做出的決策。因此,關鍵是他們應具備一定的理解力,以便能夠做出明智的決定:人工智能應該用于什么領域,哪些數據由算法提供信息,以及人工智能是如何決策的。

      一個好的檢驗就是問你自己,“我能面向董事會證明計算程序的算法所做的決定是正確的嗎?”如果不能,那就盡快掌握人工智能的基礎知識,詢問它的使用,并關注每個步驟的概述以確?山忉屝院拓熑沃贫,將有助于確保人工智能方案被以符合道德規范的方式使用,并盡可能降低風險。


      聯系我們

      常州市·新北區太湖東路9-2號

      企業QQ:42347403

      企業郵箱:249860953@qq.com

      13775646999
      (微信同步)
      服務咨詢(09:00-18:00)
      有没有人加QQ看B的QQ号,武汉茶会会所,西宁免费吃饭,广州市黄埔区大沙地