近年來,人工智能技術(shù)迅猛發(fā)展,深度融入各行各業(yè),走進(jìn)我們生活的每個(gè)角落。我們驚嘆于AI帶來的無限可能,也心生憂慮和迷茫。日前,工業(yè)和信息化部等十部門聯(lián)合印發(fā)《人工智能科技倫理審查與服務(wù)辦法(試行)》,聚焦AI時(shí)代的工具理性和倫理邊界,規(guī)范人工智能科技活動(dòng)治理,確保人工智能安全、可靠、可控。
打開電商平臺(tái),系統(tǒng)會(huì)依托用戶瀏覽記錄、消費(fèi)偏好智能推薦適配商品,可背后也藏著過度采集數(shù)據(jù)、誘導(dǎo)非理性消費(fèi)的問題;生成式人工智能能極大提升工作效率,但其內(nèi)容真假難辨,一旦被濫用,就可能成為制造虛假信息、偽造詐騙素材的工具;職場(chǎng)招聘中,AI系統(tǒng)減輕了人事部門繁瑣的工作量,可有些算法僅憑年齡、性別、畢業(yè)院校就給求職者貼“標(biāo)簽”,設(shè)置不合理的準(zhǔn)入門檻……人工智能在給我們帶來便利的同時(shí),也帶來一系列倫理問題。
人工智能本身沒有自主意識(shí),它的決策行為,都由背后的算法驅(qū)動(dòng)。如果算法在設(shè)計(jì)時(shí),沒有融入公平、誠信、尊重他人等倫理準(zhǔn)則,只追求效率、利益最大化,那么人工智能技術(shù)越先進(jìn),潛在的風(fēng)險(xiǎn)就越大。加之人工智能技術(shù)飛速迭代,一旦出現(xiàn)倫理問題,負(fù)面影響會(huì)迅速放大,不僅會(huì)損害個(gè)人合法權(quán)益,擾亂社會(huì)公共秩序,更可能讓治理成本大幅增加,陷入技術(shù)治理中的“科林格里奇困境”。
讓科技改變生活,不僅需要制度規(guī)范,而且要以制度為引,讓技術(shù)向善而行。近年來,我國持續(xù)健全人工智能倫理治理制度體系,從頂層設(shè)計(jì)到專項(xiàng)監(jiān)管,再到技術(shù)規(guī)范,不斷完善制度鏈條。此次《辦法》更是鼓勵(lì)企業(yè)、高校與科研機(jī)構(gòu)加大人工智能倫理治理技術(shù)研發(fā)和工具創(chuàng)新力度,推動(dòng)技術(shù)實(shí)現(xiàn)自我規(guī)范、主動(dòng)向善,從技術(shù)層面減少倫理風(fēng)險(xiǎn)隱患,不斷促成“研發(fā)—應(yīng)用—保護(hù)”的良性循環(huán)。
制度是底線,制度也是托舉。守好倫理規(guī)范的同時(shí),更要以良制善治為智能產(chǎn)業(yè)發(fā)展助力賦能。近日,黑龍江省印發(fā)《黑龍江省支持智能機(jī)器人產(chǎn)業(yè)發(fā)展若干政策措施》,圍繞創(chuàng)新能力、產(chǎn)業(yè)集聚、場(chǎng)景應(yīng)用、要素支撐等維度,提出了一系列具體措施。一方面,用好倫理的“導(dǎo)航儀”;另一方面,裝上政策的“加速器”,人工智能才能行穩(wěn)致遠(yuǎn),更好服務(wù)人類社會(huì)。
說到底,人工智能的倫理底線,要靠每個(gè)人對(duì)“技術(shù)向善”的自覺堅(jiān)守,離不開每一個(gè)參與者的道德自覺??萍及l(fā)展的最終目的,是服務(wù)人類、讓我們的生活變得更好。只有研發(fā)者、使用者把“尊重人的尊嚴(yán)”刻進(jìn)算法設(shè)計(jì)的底層邏輯,人工智能才能真正發(fā)揮工具價(jià)值。
人工智能的發(fā)展應(yīng)該以人類社會(huì)的穩(wěn)定與福祉為前提。營造安全、有序、向善的人工智能發(fā)展生態(tài),讓技術(shù)真正造福社會(huì)、守護(hù)民生,既是我們的目標(biāo),也是全社會(huì)的共同期待。
黑龍江日?qǐng)?bào)評(píng)論員:蔡佳航