據(jù)央視新聞消息,7月23日,科技部官網(wǎng)公布《駕駛自動化技術(shù)研發(fā)倫理指引》(以下簡稱《指引》),意在防范技術(shù)研發(fā)與產(chǎn)品應(yīng)用過程中的科技倫理風(fēng)險,推動該領(lǐng)域健康發(fā)展。


這份由國家科技倫理委員會人工智能倫理分委員會組織編寫的文件,遵循以人為本、增進福祉,安全優(yōu)先、尊重生命,公平公正、避免偏見,知情保障、信息公開的基本原則。其中特別強調(diào),在面對不可避免的交通事故或極端行車環(huán)境時,應(yīng)確保駕駛自動化系統(tǒng)能高度尊重生命,積極尋求有效應(yīng)對方法最大限度降低對人的傷害;與駕駛自動化技術(shù)相關(guān)的算法、模型等內(nèi)容應(yīng)當(dāng)被清晰記錄、隨時可查。


《指引》明確,駕駛自動化技術(shù)的研究開發(fā)應(yīng)設(shè)計完善的風(fēng)險監(jiān)測與應(yīng)急機制,確保相關(guān)責(zé)任主體能夠及時發(fā)現(xiàn)、干預(yù)并控制風(fēng)險,將潛在威脅降至合理可控的范圍內(nèi)。同時,駕駛自動化技術(shù)的研究開發(fā)和應(yīng)用應(yīng)建立健全數(shù)據(jù)全生命周期隱私保護機制,嚴(yán)格遵循知情同意、最小必要、去標(biāo)識化等原則。


《指引》還對不同類型駕駛自動化技術(shù)明確了相應(yīng)的倫理規(guī)范要求。具體而言:


先進駕駛輔助階段是指2級及以下的駕駛自動化,其責(zé)任主體通常是人類駕駛員;


有限制階段的自動駕駛包括3級和4級駕駛自動化,責(zé)任主體因具體運行場景而異,用戶和自動駕駛系統(tǒng)都可能成為責(zé)任主體;


無限制階段的自動駕駛為5級的駕駛自動化,除非特殊情況下有用戶主動介入操作,否則,無限制階段自動駕駛的責(zé)任主體以自動駕駛系統(tǒng)為主。當(dāng)自動駕駛系統(tǒng)作為責(zé)任主體時,應(yīng)當(dāng)能夠根據(jù)有關(guān)法律法規(guī)等向相關(guān)自然人主體或法人主體清晰追責(zé)。


《指引》還強調(diào),在發(fā)布重大研究成果時,相關(guān)主體應(yīng)堅持客觀準(zhǔn)確、實事求是,不得編造、傳播與駕駛自動化系統(tǒng)實際功能和效果不相符的虛假信息。


此外,在研發(fā)、生產(chǎn)、推廣等過程中,相關(guān)主體應(yīng)向社會公眾明確告知并清晰闡釋駕駛自動化產(chǎn)品的功能分級、使用條件、使用方式等注意事項,及時澄清和糾正可能導(dǎo)致公眾對駕駛自動化技術(shù)產(chǎn)生誤解的誤導(dǎo)性信息。


(總臺央視記者 張春玲)


編輯 李憶林子

來源:央視新聞