成人无码嫩草影院免费-三级黄舔b在线观看视频-日本精品中文一区二区-精产一二三区av成人免费

Internet Develppment
互聯(lián)網(wǎng)開發(fā)& 推廣服務(wù)提供商

我們擅長(zhǎng)商業(yè)策略與用戶體驗(yàn)的完美結(jié)合。

歡迎瀏覽我們的案例。

首頁 > 新聞中心 > 新聞動(dòng)態(tài) > 正文

歐盟發(fā)布人工智能倫理指南:AI系統(tǒng)要負(fù)責(zé)任且無偏見

發(fā)布時(shí)間:2019-04-09 11:03:27來源:新浪科技

  北京時(shí)間 4 月 19 日早間消息,據(jù)美國(guó)科技媒體 The Verge 報(bào)道,歐盟本周一發(fā)布了一系列關(guān)于發(fā)展人工智能(AI)倫理的新指南,作為企業(yè)和政府開發(fā)人工智能倫理應(yīng)用的指導(dǎo)方針。

  這些規(guī)則不同于美國(guó)科幻小說作家艾薩克·阿西莫夫(Isaac Asimov)的“機(jī)器人三定律”,沒有直截了當(dāng)?shù)靥峁┮粋€(gè)道德框架來幫助人類控制兇殘的機(jī)器人。相反,當(dāng)人工智能整合至醫(yī)療、教育和消費(fèi)技術(shù)等領(lǐng)域時(shí),它們可澄清一些影響社會(huì)的模糊而分散的問題。

  因此,舉例來說,如果一套 AI 系統(tǒng)在未來某個(gè)時(shí)候診斷出你患有癌癥,歐盟的指導(dǎo)方針將確保下列事情的發(fā)生:軟件不會(huì)因種族或性別而產(chǎn)生偏見;不會(huì)推翻人類醫(yī)生的反對(duì)意見;患者有權(quán)選擇聽取 AI 診斷意見。

  這些指導(dǎo)方針有助于阻止人工智能胡作非為,并保證在行政和官僚主義的層面上,不會(huì)制造出阿西莫夫式的謀殺謎團(tuán)。

  為了幫助實(shí)現(xiàn)這一目標(biāo),歐盟召集了 52 名專家組成的小組,提出了他們認(rèn)為未來 AI 系統(tǒng)應(yīng)該滿足的七項(xiàng)要求。具體如下:

  - 人類作用和監(jiān)督:人工智能不應(yīng)該踐踏人類的自主性。人們不應(yīng)該被 AI 系統(tǒng)操縱或脅迫,而且,人類應(yīng)該能夠干預(yù)或監(jiān)督軟件做出的每一個(gè)決定。

  - 技術(shù)的穩(wěn)健性和安全性:人工智能應(yīng)該是安全的、準(zhǔn)確的。它不應(yīng)該易于受到外部攻擊(例如對(duì)抗性實(shí)例)的影響,而且,應(yīng)該是相當(dāng)可靠的。

  - 隱私和數(shù)據(jù)管理:人工智能系統(tǒng)收集的個(gè)人數(shù)據(jù)應(yīng)該是安全的、私有的。它不應(yīng)該讓任何人接觸,也不應(yīng)該輕易被盜。

  - 透明性:用于創(chuàng)建人工智能系統(tǒng)的數(shù)據(jù)和算法應(yīng)該是可訪問的,軟件所做的決定應(yīng)“由人類理解和跟蹤”。換句話說,操作員應(yīng)該能夠解釋 AI 系統(tǒng)所做的決定。

  - 多樣性、非歧視和公平性:人工智能提供的服務(wù)應(yīng)面向所有人,無論年齡、性別、種族或其他特征。同樣地,系統(tǒng)不應(yīng)該在這些方面存在偏見。

  - 環(huán)境和社會(huì)福祉:人工智能系統(tǒng)應(yīng)該是可持續(xù)的(即它們應(yīng)該對(duì)生態(tài)負(fù)責(zé))并“促進(jìn)積極的社會(huì)變革”。

  - 問責(zé)制:人工智能系統(tǒng)應(yīng)該是可審計(jì)的,并被納入企業(yè)可舉報(bào)范疇,以便受到現(xiàn)有規(guī)則的保護(hù)。應(yīng)事先告知和報(bào)告系統(tǒng)可能產(chǎn)生的負(fù)面影響。

  人們會(huì)注意到上述一些需求非常抽象,很難從客觀的角度進(jìn)行評(píng)估。(例如,“積極的社會(huì)變革”的定義因人而異,因國(guó)而異),但其他定義內(nèi)容更為直截了當(dāng),可以通過政府監(jiān)督進(jìn)行檢驗(yàn)。例如,用于訓(xùn)練政府 AI 系統(tǒng)的數(shù)據(jù)實(shí)行共享,可能是對(duì)抗偏見性算法的好方法。

  這些指導(dǎo)方針不具有法律約束力,但它們可能對(duì)歐盟未來起草的所有法律造成影響。歐盟一再表示,希望成為 AI 倫理領(lǐng)域的領(lǐng)導(dǎo)者,并通過《通用數(shù)據(jù)保護(hù)條例》(GDPR)表明,愿意制定影響深遠(yuǎn)的法律,以保護(hù)公眾的數(shù)字權(quán)利。

  不過在一定程度上,歐盟是由于環(huán)境因素而迫不得已充當(dāng)這一角色的。在投資和前沿研究方面,歐盟無法與美國(guó)和中國(guó)——AI 領(lǐng)域的世界領(lǐng)先者——一爭(zhēng)高下,因此,它選擇了倫理作為塑造技術(shù)未來的最佳選擇。

  作為這項(xiàng)工作的一部分,本周一的報(bào)告包括了一份所謂的“值得信賴的 AI 評(píng)估列表”,以便幫助專家找出 AI 軟件中存在的潛在弱點(diǎn)或危險(xiǎn)。此列表中的問題包括“是否對(duì)系統(tǒng)在意外情況和環(huán)境中的行為進(jìn)行了驗(yàn)證?”和“是否對(duì)數(shù)據(jù)集內(nèi)的數(shù)據(jù)類型和范圍進(jìn)行了評(píng)估?”

  這些評(píng)估清單只是初步措施,歐盟將在未來幾年收集企業(yè)反饋,并在 2020 年期限內(nèi)提供一份最終報(bào)告。

  范尼·希德韋吉(Fanny Hidvegi)現(xiàn)在是數(shù)字版權(quán)集團(tuán) Access Now 的政策經(jīng)理,也是參與撰寫這份指南的專家之一,他說評(píng)估列表是報(bào)告中最重要的部分。希德韋吉向 The Verge 透露,“它提供了一個(gè)實(shí)用的、前瞻性的視角”,來緩解人工智能的潛在危害。

  “在我們看來,歐盟有能力、有責(zé)任站在這項(xiàng)工作的最前線,”希德韋吉說,“但我們認(rèn)為,歐盟不應(yīng)停留在倫理指南水平……而應(yīng)該上升到法律層面。”

  另有一些人懷疑,歐盟試圖通過影響巨大的倫理研究來規(guī)范全球人工智能的發(fā)展方式。

  智庫機(jī)構(gòu)數(shù)據(jù)創(chuàng)新中心(Center for Data Innovation)的高級(jí)政策分析師艾琳·奇沃特(Eline Chivot)在接受 The Verge 采訪時(shí)說:“通過為 AI 倫理創(chuàng)建黃金標(biāo)準(zhǔn)來確認(rèn)歐盟在全球 AI 發(fā)展中的地位,我們對(duì)正在采取的這種方法持懷疑態(tài)度。要成為 AI 倫理的領(lǐng)導(dǎo)者,首先你必須在人工智能領(lǐng)域遙遙領(lǐng)先。”
 ?。?a href="http://www.yibianchina.com/city/handan/">邯鄲網(wǎng)站建設(shè))

最新資訊
? 2018 河北碼上網(wǎng)絡(luò)科技有限公司 版權(quán)所有 冀ICP備18021892號(hào)-1   
? 2018 河北碼上科技有限公司 版權(quán)所有.