摘 要: [目的/意義] 探索圖情學(xué)科對(duì)人工智能倫理問(wèn)題研究現(xiàn)狀,推動(dòng)信息管理技術(shù)在同步發(fā)展的倫理研究中健康發(fā)展。[方法/過(guò)程] 收集 2015—2019 年 Web of Science 核心合集圖書(shū)情報(bào)學(xué)科類目 SSCI 期刊中,探討人工智能倫理的學(xué)術(shù)論文 39 篇。利用內(nèi)容分析法從問(wèn)題層次、應(yīng)用領(lǐng)域、對(duì)策等角度進(jìn)行編碼和分析。[結(jié)果/ 結(jié)論] 結(jié)果表明,圖情學(xué)科 SSCI 期刊論文對(duì)人工智能倫理問(wèn)題的關(guān)注整體上與人工智能倫理研究領(lǐng)域具有較高一致性。研究視角覆蓋人本主義觀和技術(shù)主義觀,研究?jī)?nèi)容較為全面地涵蓋了數(shù)據(jù)、算法及人工智能系統(tǒng)不同層次,涉及醫(yī)藥衛(wèi)生、文化教育、軍事、政治等多個(gè)領(lǐng)域。并且,從社會(huì)、技術(shù)角度開(kāi)展對(duì)策研究。圖情領(lǐng)域未來(lái)可以進(jìn)一步加強(qiáng)倫理問(wèn)題層次和領(lǐng)域研究的多樣性,深化人工智能倫理倡導(dǎo)規(guī)范與準(zhǔn)則等問(wèn)題的研究。
本文源自黃崑; 徐曉婷; 黎安潤(rùn)澤; 徐峰, 現(xiàn)代情報(bào) 發(fā)表時(shí)間:2021-06-01《現(xiàn)代情報(bào)》(月刊)創(chuàng)刊于1980年,是由中國(guó)科技情報(bào)學(xué)會(huì)與吉林省科技信息研究所主辦全國(guó)公開(kāi)發(fā)行的大型軟科學(xué)綜合性期刊,是中國(guó)學(xué)術(shù)期刊綜合評(píng)價(jià)數(shù)據(jù)庫(kù)來(lái)源期刊,中國(guó)人文社會(huì)科學(xué)引文數(shù)據(jù)庫(kù)來(lái)源期刊,中國(guó)期刊網(wǎng)上網(wǎng)期刊;是集情報(bào)科學(xué)理論與情報(bào)實(shí)踐研究及圖書(shū)館學(xué)研究于一體的學(xué)術(shù)陣地。情報(bào)學(xué)理論刊物。旨在宣傳普及情報(bào)學(xué)知識(shí),增強(qiáng)情報(bào)意識(shí)、情報(bào)觀念和進(jìn)一步提高全民族情報(bào)素質(zhì)。榮獲中文核心期刊(2004)。
關(guān)鍵詞: 人工智能; 倫理; 圖書(shū)情報(bào); 內(nèi)容分析
1 問(wèn)題提出
人工智能( Artificial Intelligence,簡(jiǎn)稱 AI) 興起于 20 世紀(jì) 50 年代,研究和制造能夠模擬人類智能活動(dòng)的智能機(jī)器或智能系統(tǒng),用來(lái)延伸和擴(kuò)展人類的智能[1]。人工智能技術(shù)發(fā)展驅(qū)動(dòng)了新一輪產(chǎn)業(yè)變革和第四次科技革命[2]。美國(guó)、日本、英國(guó)等國(guó)家( 地區(qū)) 都已出臺(tái)相關(guān)政策對(duì)人工智能技術(shù)的發(fā)展予以支持,我國(guó)政府也高度重視,相繼出臺(tái) 《新一代人工智能發(fā)展規(guī)劃》( 2017 年 7 月) [3]、 《促進(jìn)新一代人工智能產(chǎn)業(yè)發(fā)展三年行動(dòng)計(jì)劃 ( 2018— 2020) 》( 2017 年 12 月) [4]、 《關(guān)于促進(jìn)人工智能和實(shí)體經(jīng)濟(jì)深度融合的指導(dǎo)意見(jiàn)》( 2019 年 3 月) [5]等多項(xiàng)戰(zhàn)略規(guī)劃和行動(dòng)計(jì)劃。然而,技術(shù)的健康發(fā)展離不開(kāi)倫理研究的同步發(fā)展。2018 年,習(xí)近平同志在主持中共中央政治局第九次集體學(xué)習(xí)時(shí),指出 “要整合多學(xué)科力量,加強(qiáng)人工智能相關(guān)法律、倫理、社會(huì)問(wèn)題研究”[6]。在國(guó)務(wù)院印發(fā)的 《新一代人工智能發(fā)展規(guī)劃》中,提出到 2025 年 “初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評(píng)估和管控能力”[3]。可見(jiàn),在人工智能技術(shù)發(fā)展過(guò)程中,倫理研究至關(guān)重要。倫理泛指 “道德”,狹義上常用來(lái)表示某一特定傳統(tǒng)、群體或個(gè)人的道德原則[7],表現(xiàn)為人與社會(huì)、人與自然和人與人關(guān)系的思想與行為準(zhǔn)則。在人工智能時(shí)代倫理的內(nèi)涵,指在一定社會(huì)歷史條件下,通過(guò)制定相關(guān)原則、規(guī)范和標(biāo)準(zhǔn),促進(jìn)人、社會(huì)、自然和人工智能機(jī)器的和諧共處[8]。
新技術(shù)的發(fā)展及其社會(huì)影響是圖情學(xué)科重要的內(nèi)容之一。人工智能是一個(gè)新興的交叉學(xué)科,應(yīng)用領(lǐng)域廣泛。圖情學(xué)科現(xiàn)有的情報(bào)分析方法,可能在處理人工智能倫理問(wèn)題研究上,還需要結(jié)合新的理論視角和研究手段,這也有助于推進(jìn)圖情學(xué)科在處理交叉學(xué)科問(wèn)題上研究方法的探索。不僅如此,圖情學(xué)科對(duì)信息生命周期的管理研究,各類信息系統(tǒng)、信息技術(shù)的創(chuàng)新研究,都存在著道德倫理的風(fēng)險(xiǎn),也需要對(duì)倫理問(wèn)題進(jìn)行思考并應(yīng)對(duì)。洞察國(guó)際圖情領(lǐng)域所關(guān)注的倫理風(fēng)險(xiǎn)情境和應(yīng)對(duì),不僅可以用于分析與計(jì)算機(jī)、哲學(xué)等不同學(xué)科關(guān)注的聯(lián)系和差異,也可以為我國(guó)圖情學(xué)科研究者進(jìn)入這一領(lǐng)域提供參考和借鑒。
根據(jù)對(duì)國(guó)內(nèi)圖情 CSSCI 期刊的論文調(diào)研可以看到,研究者們已經(jīng)從隱私保護(hù)、數(shù)據(jù)安全等問(wèn)題角度進(jìn)行探討,還有研究者從國(guó)際角度,對(duì)人工智能倫理問(wèn)題研究進(jìn)行分析,如劉鴻宇等[9]、汪玉蘭等[10]都運(yùn)用 CiteSpace 工具,對(duì)人工智能倫理領(lǐng)域文獻(xiàn)研究論文研究的主題、經(jīng)典文獻(xiàn)與重要作者等進(jìn)行了分析。王晰巍等[11]則利用 CiteSpace 工具,對(duì)國(guó)內(nèi)外圖情領(lǐng)域在人工智能問(wèn)題上的研究論文進(jìn)行分析,指出國(guó)內(nèi)外研究者主要圍繞人工智能在信息檢索、社交媒體內(nèi)容分類、情感分析、知識(shí)問(wèn)答、網(wǎng)絡(luò)輿情分析等方面。雖然倫理問(wèn)題研究并非當(dāng)下圖情領(lǐng)域在人工智能方面研究關(guān)注的熱點(diǎn),但是,人工智能技術(shù)對(duì)隱私與安全的影響等相關(guān)倫理問(wèn)題被認(rèn)為是未來(lái)研究趨勢(shì)中重要的方向之一[11]。
可見(jiàn),國(guó)內(nèi)圖情領(lǐng)域已經(jīng)開(kāi)始關(guān)注人工智能倫理問(wèn)題,為了進(jìn)一步推動(dòng)圖情領(lǐng)域的研究關(guān)注和力度,本研究選取了近 5 年圖情學(xué)科 SSCI 期刊發(fā)表的相關(guān)論文,利用內(nèi)容分析法對(duì)這些研究探討的倫理風(fēng)險(xiǎn)問(wèn)題情境、應(yīng)對(duì)策略進(jìn)行編碼和分析,力圖為我國(guó)圖情領(lǐng)域同行開(kāi)展研究提供參考和借鑒。
2 研究設(shè)計(jì)
2. 1 研究問(wèn)題
本研究通過(guò)分析國(guó)際圖書(shū)情報(bào)領(lǐng)域人工智能倫理研究文獻(xiàn),探究圖書(shū)情報(bào)領(lǐng)域人工智能倫理研究現(xiàn)狀,具體研究問(wèn)題如下:
1) 研究了哪些主題的人工智能倫理問(wèn)題?
2) 提出了哪些倫理風(fēng)險(xiǎn)應(yīng)對(duì)的策略?
2. 2 編碼設(shè)計(jì)
本研究采取內(nèi)容分析法,從問(wèn)題層次、應(yīng)用領(lǐng)域、對(duì)策 3 個(gè)方面,對(duì)收集到的論文進(jìn)行編碼。其中,問(wèn)題層次又分為數(shù)據(jù)、算法和人工智能系統(tǒng) 3 類[12-13]。應(yīng)用領(lǐng)域根據(jù) 《中國(guó)圖書(shū)館分類法》中的 21 個(gè)大類 ( 去掉 Z 綜合性) 進(jìn)行編碼[14]。在對(duì)策層面,借鑒 Hagendorff T 提出的社會(huì)方法和技術(shù)方法分類方式[15],如表 1 所示。編碼過(guò)程由兩位編碼員進(jìn)行,在編碼分歧時(shí)進(jìn)行討論,最終取得一致后完成編碼工作。
2. 3 數(shù)據(jù)收集
為了收集圖情領(lǐng)域相關(guān)論文,根據(jù) Web of Science ( WOS) 數(shù)據(jù)庫(kù)圖書(shū)情報(bào)學(xué)科類目下進(jìn)行檢索。一方面,綜合兩種策略檢索人工智能主題,如表 2 所示。第一,使用 “人工智能”或人工智能系統(tǒng)載體的 “機(jī)器人”為主題詞[9,17-18]; 第二,根據(jù)人工智能相關(guān)發(fā)展報(bào)告,將人工智能領(lǐng)域的相關(guān)技術(shù)作為主題詞[11]。
另一方面,確定 “倫理”或 “道德”作為倫理主題的檢索詞[9-10,19]。
因此,最終確定的檢索式為 TS =( “Artificial Intelligen* ”OR AI OR Robot* OR “Machine Learning” OR “Deep Learning” OR “Natural Language Processing ” OR “Image Recognition ” OR “Face Recognition” OR “Computer Vision” OR “Virtual Assistant”OR “Visual Search”OR “Text Analysis” OR “Semantic Search” OR “Predictive Analysis” OR “Intelligent System ” OR “Semantic Web ”) AND TS = ( Ethic* OR Moral* ) ,并限定 WOS 類別為圖書(shū)情報(bào) ( INFORMATION SCIENCE LIBRARY SCIENCE) ,文獻(xiàn)類型為學(xué)術(shù)論文 ( Article,Review,Proceedings Paper) ,在 2015 年 1 月 1 日— 2019 年 12 月 31 日期間發(fā)表,檢索到 43 篇論文。其中 4 篇無(wú)法獲得全文,最終分析的論文數(shù)為 39 篇。自 2015 年起,逐年發(fā)表論文數(shù)為 4、7、3、 10 和 15,整體呈現(xiàn)上升趨勢(shì)。
對(duì)文獻(xiàn)來(lái)源出版物進(jìn)行統(tǒng)計(jì),共有 14 個(gè)來(lái)源期刊。發(fā)表在期刊 《Ethics and Information Technology》的論文占 61%,如表 3 所示,該期刊是圖書(shū)情報(bào)學(xué)科類目下發(fā)表人工智能倫理研究文獻(xiàn)的主要刊物。該期刊的出版商為 Springer Nature,出版年份可追溯到 1999 年,出版頻率為每年出版 4 期, 2019 年期刊影響因子為 2. 06。根據(jù) WOS 的學(xué)科分類,該期刊同時(shí)歸類在圖書(shū)情報(bào)學(xué)和倫理學(xué)學(xué)科,辦刊宗旨是推動(dòng)道德哲學(xué)與信息通信技術(shù)領(lǐng)域之間的對(duì)話。
從論文作者機(jī)構(gòu)來(lái)看,這 39 篇論文共計(jì)涉及 83 位作者,來(lái)自 18 個(gè)國(guó)家 ( 地區(qū)) ,其中,美國(guó)、英國(guó)和荷蘭的作者發(fā)表文獻(xiàn)最多,分別有 11 篇、8 篇和 6 篇研究文獻(xiàn); 意大利和丹麥研究者分別發(fā)表了 3 篇文獻(xiàn)。我國(guó)研究者發(fā)表了 1 篇相關(guān)研究。
3 數(shù)據(jù)分析
3. 1 基本情況
根據(jù)編碼結(jié)果,39 篇論文分為兩類,一類在論文標(biāo)題中就出現(xiàn) “倫理或道德”,主要探究或解決某一類倫理問(wèn)題,如無(wú)人機(jī)在人道主義領(lǐng)域應(yīng)用中的道德反思[20]、人工智能產(chǎn)品與人權(quán)問(wèn)題[21]、機(jī)器人、生物特征識(shí)別等數(shù)字化應(yīng)用帶來(lái)的社會(huì)倫理問(wèn)題[22]。第二類在關(guān)鍵詞或摘要內(nèi)容中出現(xiàn) “倫理或道德”,通常將倫理作為研究分析或討論的視角之一。如探討人工智能在公共部門服務(wù)領(lǐng)域的應(yīng)用和發(fā)展問(wèn)題時(shí)涉及了將人工智能政策和倫理納入應(yīng)用各層面的觀點(diǎn)[23]。在訪談圖書(shū)館館長(zhǎng)、圖書(shū)館評(píng)論員等人員探究人工智能對(duì)高校圖書(shū)館潛在影響時(shí)提及,人工智能應(yīng)用的倫理問(wèn)題是圖書(shū)館面臨的挑戰(zhàn)之一[24]。
在應(yīng)用領(lǐng)域上,共計(jì)出現(xiàn) 9 類領(lǐng)域,醫(yī)藥衛(wèi)生領(lǐng)域出現(xiàn)最多,如圖 1 所示。
在問(wèn)題層次上,數(shù)據(jù)、算法和人工智能系統(tǒng)層面?zhèn)惱韱?wèn)題研究各有 14 篇、11 篇和 31 篇。可見(jiàn),對(duì)人工智能系統(tǒng)層面的關(guān)注度更高。下面,結(jié)合問(wèn)題層次、應(yīng)用領(lǐng)域進(jìn)行分析。
3. 2 數(shù)據(jù)層面
數(shù)據(jù)層面?zhèn)惱韱?wèn)題研究涉及的應(yīng)用領(lǐng)域如圖 2 所示。
關(guān)于醫(yī)藥衛(wèi)生領(lǐng)域,主要探討護(hù)理和醫(yī)療中的數(shù)據(jù)采集、共享中的倫理風(fēng)險(xiǎn)。針對(duì)護(hù)理數(shù)據(jù)的采集,護(hù)理機(jī)器人 24 小時(shí)監(jiān)視、記錄并傳遞護(hù)理對(duì)象的身體狀況,這些數(shù)據(jù)包含護(hù)理對(duì)象日常行動(dòng)的大量信息,如洗澡或尚未穿好衣服等時(shí)刻被監(jiān)視或記錄,這些信息如果在未征得護(hù)理對(duì)象許可情況下被收集、觀看甚至利用,會(huì)威脅到護(hù)理對(duì)象的隱私[22]。針對(duì)醫(yī)療數(shù)據(jù)的共享,不同醫(yī)療機(jī)構(gòu)之間的共享數(shù)據(jù)有助于增加數(shù)據(jù)樣本的容量和多樣性[15,25],大量訓(xùn)練數(shù)據(jù)可以促進(jìn)醫(yī)療記錄監(jiān)測(cè)和醫(yī)學(xué)治療改善,但是共享過(guò)程容易因?yàn)閿?shù)據(jù)保護(hù)不當(dāng)而侵犯患者的健康隱私[26]。
關(guān)于政治領(lǐng)域,主要探討公共服務(wù)中公民數(shù)據(jù)利用產(chǎn)生的倫理風(fēng)險(xiǎn)。Sousa W G 等[23]提出公共部門應(yīng)用人工智能技術(shù)時(shí)要避免數(shù)據(jù)被一些追求個(gè)人利益 的 人 破 壞 和 利 用。 針對(duì)公民數(shù)據(jù)利用, Lindgren I 等[27]指出應(yīng)用人工智能技術(shù)生成或分析大量公民數(shù)據(jù)時(shí),結(jié)果可能用于監(jiān)視公民線上或線下行為而限制其行為活動(dòng),對(duì)公民數(shù)據(jù)隱私造成影響。
關(guān)于地球科學(xué)領(lǐng)域,主要探討地理文本分析的數(shù)據(jù)標(biāo)注可能引發(fā)的倫理問(wèn)題。McDonough K 等[28]分析了跨越歷史的地理文本給地理信息檢索帶來(lái)的挑戰(zhàn),認(rèn)為常用地名詞典由于缺少鏈接到歷史地名形式的時(shí)間元數(shù)據(jù),造成地名歷史被遺忘、殖民時(shí)期地名永久化,從而引發(fā)殖民時(shí)期地名歷史延續(xù)、當(dāng)?shù)孛麣v史文化遭破壞等一系列社會(huì)倫理問(wèn)題。
關(guān)于工業(yè)技術(shù)領(lǐng)域,主要探討家居產(chǎn)品應(yīng)用中的倫理風(fēng)險(xiǎn)。如智能家居產(chǎn)品收集用戶個(gè)人信息和產(chǎn)品使用等數(shù)據(jù),雖然智能產(chǎn)品提供了隱私協(xié)議,但人們通常不能完全理解協(xié)議內(nèi)容,或者由于產(chǎn)品的使用限制和隱私協(xié)議的閱讀時(shí)間過(guò)長(zhǎng)而習(xí)慣性選擇 “同意”,這給隱私安全帶來(lái)威脅[22]。
在經(jīng)濟(jì)、軍事、交通運(yùn)輸?shù)阮I(lǐng)域,數(shù)據(jù)層面的問(wèn)題也主要集中在數(shù)據(jù)生命周期的不同階段,如在數(shù)據(jù)組織階段,Iliadis A[29]提出應(yīng)用本體對(duì)軍事情報(bào)、社會(huì)計(jì)劃和經(jīng)濟(jì)學(xué)等領(lǐng)域的數(shù)據(jù)進(jìn)行組織分析時(shí),需要關(guān)注錯(cuò)誤識(shí)別社會(huì)實(shí)體可能產(chǎn)生的倫理道德風(fēng)險(xiǎn)。
此外,表情數(shù)據(jù)采集問(wèn)題也受到關(guān)注。表情數(shù)據(jù)采集不僅存在常見(jiàn)的數(shù)據(jù)泄露的隱患,還會(huì)帶來(lái)精神層面的隱私侵犯形式。如面部識(shí)別軟件可以自動(dòng)發(fā)現(xiàn)人們不自覺(jué)的面部微表情,揭示人們視為隱私的情緒[15]。又如機(jī)器人教師可以通過(guò)情緒探測(cè)器和傳感器識(shí)別學(xué)生的情緒,然而這些個(gè)人情緒識(shí)別信息在存儲(chǔ)和傳輸過(guò)程中可能會(huì)侵犯到學(xué)生的隱私,帶來(lái)新的隱患[30]。情緒識(shí)別技術(shù)通過(guò)檢查人們?cè)跓o(wú)意識(shí)發(fā)出的非語(yǔ)言信息 ( 如面部表情、走路方式) ,可能因?yàn)樾孤度藗冊(cè)鞠M[藏的心理狀態(tài)或情緒而侵犯人的 “精神隱私”[22]。
3. 3 算法層面
算法層面?zhèn)惱韱?wèn)題研究涉及的應(yīng)用領(lǐng)域如圖 3 所示。
關(guān)于經(jīng)濟(jì)領(lǐng)域,主要探討區(qū)域經(jīng)濟(jì)分析、社會(huì)就業(yè)、金融信貸和商業(yè)銷售等應(yīng)用情境中應(yīng)用人工智能算法產(chǎn)生的倫理問(wèn)題。具體包括: ①在區(qū)域經(jīng)濟(jì)分析中,運(yùn)用卷積神經(jīng)網(wǎng)絡(luò)識(shí)別高分辨率衛(wèi)星圖像的特征,據(jù)此分析地方經(jīng)濟(jì)發(fā)展,進(jìn)而確定各地區(qū)的經(jīng)濟(jì)水平,但這可能造成因地區(qū)經(jīng)濟(jì)水平差異產(chǎn)生的差別對(duì)待[15]; ②在就業(yè)機(jī)會(huì)分配時(shí),由于現(xiàn)有的工作數(shù)據(jù)中男性和女性的工作情況存在差異,基于這些數(shù)據(jù)進(jìn)行算法模型訓(xùn)練,容易延續(xù)數(shù)據(jù)中的性別歧視給男性提供更具經(jīng)濟(jì)優(yōu)勢(shì)的工作機(jī)會(huì)[22,31]; ③在金融信貸中,運(yùn)用人工智能技術(shù)幫助金融機(jī)構(gòu)決定提供貸款的對(duì)象,算法運(yùn)行結(jié)果可能產(chǎn)生地域、種族和性別上的偏見(jiàn)[31]。此外,金融機(jī)構(gòu)根據(jù)信用預(yù)測(cè)算法的結(jié)果確定提供貸款的對(duì)象雖然有助于規(guī)避貸款風(fēng)險(xiǎn),但同時(shí)也可能加大良好信用群體與信用有風(fēng)險(xiǎn)群體之間信用評(píng)分的差距,加劇不平等現(xiàn)象[22,32]; ④在商業(yè)銷售中,Ienca M[33]提到面部識(shí)別算法識(shí)別非裔美國(guó)人始終比白種人效果差,產(chǎn)生諸如面部識(shí)別等技術(shù)應(yīng)用的社會(huì)受益不平等問(wèn)題。
關(guān)于政治領(lǐng)域,主要探討在競(jìng)選活動(dòng)和公共部門服務(wù)中使用算法可能會(huì)引發(fā)的倫理問(wèn)題。在競(jìng)選活動(dòng)中,人工智能算法根據(jù)選民搜索行為預(yù)測(cè)選擇偏好,通過(guò)改變搜索結(jié)果順序影響選民偏好,對(duì)選舉的民主造成威脅[20]。同時(shí),信息技術(shù)創(chuàng)造的更智慧算法會(huì)有意或無(wú)意地 “懲罰”某些群體或減少他們獲得某種機(jī)會(huì)的可能性,破壞低水平的消費(fèi)者享有某些服務(wù)的公平機(jī)會(huì)[34]。這些算法偏見(jiàn)或歧視會(huì)進(jìn)一步侵犯人類原有的自我決策權(quán),公共部門在應(yīng)對(duì)算法偏見(jiàn)帶來(lái)的不利影響時(shí),存在法律問(wèn)責(zé)的困難[23]。
關(guān)于法律領(lǐng)域,主要探討犯罪預(yù)測(cè)中算法應(yīng)用產(chǎn)生的倫理問(wèn)題。Vetro A 等[31]提到法官用來(lái)評(píng)估被告再犯概率以防止累犯行為的算法存在對(duì)黑人被告的偏見(jiàn),該算法使他們普遍呈現(xiàn)更高的犯罪風(fēng)險(xiǎn),加劇現(xiàn)實(shí)社會(huì)的種族歧視,帶來(lái)社會(huì)不安定因素。Rahwan I[35]也提到警務(wù)預(yù)測(cè)中使用 AI 會(huì)使得一些人很難擺脫遭受歧視的惡性循環(huán)。
在文化科學(xué)領(lǐng)域,主要討論新聞傳播中使用人工智能算法可能引起的倫理問(wèn)題。運(yùn)用機(jī)器學(xué)習(xí)算法,通過(guò)用戶的瀏覽和點(diǎn)擊等行為預(yù)測(cè)他們的偏好選擇,并據(jù)此推薦新聞內(nèi)容,在用戶對(duì)推薦算法不知情或不理解的情況下,將他們閱讀的新聞內(nèi)容朝著算法預(yù)測(cè)的方向引導(dǎo),這可能限制了用戶對(duì)新聞內(nèi)容的自主選擇權(quán)利[15,22,24]。
3. 4 人工智能系統(tǒng)層面
人工智能系統(tǒng)層面?zhèn)惱韱?wèn)題研究涉及的應(yīng)用領(lǐng)域如圖 4 所示。
在社會(huì)科學(xué)領(lǐng)域,主要討論機(jī)器人在人類社會(huì)活動(dòng)中引發(fā)的倫理問(wèn)題。如聊天、陪伴等社交機(jī)器人通過(guò)模仿人類行為觸發(fā)用戶的情緒反應(yīng),可能讓用戶投入情感并建立一種新的社會(huì)關(guān)系[36]。對(duì)于認(rèn)知水平有限的用戶,可能會(huì)降低他們參與真正社會(huì)互動(dòng)的意愿,造成道德傷害[36-37]。又如機(jī)器人擁有的道德能力引發(fā)的倫理問(wèn)題,包括機(jī)器人是否應(yīng)該有自主性、是否應(yīng)該總是聽(tīng)從人類的命令、是否應(yīng)該被允許在一定情境下殺害人類、是否應(yīng)該享有被保護(hù)權(quán)利等[38]。人們很容易將機(jī)器人使用中產(chǎn)生的問(wèn)題歸咎于機(jī)器人本身或?qū)C(jī)器人負(fù)有責(zé)任的代理人,但機(jī)器人往往不滿足被追責(zé)的條件或者不適合成為被追責(zé)的責(zé)任主體,由此可能導(dǎo)致道德替罪羊的出現(xiàn),削弱公眾對(duì)法治的信心[39]。
在醫(yī)藥衛(wèi)生領(lǐng)域,主要探討護(hù)理機(jī)器人引發(fā)的倫理問(wèn)題。機(jī)器人在喂食、搬運(yùn)等行為時(shí)不能像人一樣對(duì)照料對(duì)象提供關(guān)愛(ài),因而被照料者可能會(huì)感覺(jué)自己被當(dāng)作物體來(lái)對(duì)待,個(gè)人尊嚴(yán)受到傷害[22]。 Draper H 等[40]提到使用機(jī)器人為老年人提供家庭護(hù)理服務(wù)時(shí),機(jī)器人的監(jiān)視可能干擾老人的行動(dòng),剝奪他們自主選擇權(quán)。Tuisku O 等[41]也指出機(jī)器人無(wú)法代替人類的聲音和手,機(jī)器人的使用會(huì)減少護(hù)理中的人際接觸,造成人類關(guān)懷的喪失。Rodogno R[42]探究陪伴型機(jī)器人與老年人的關(guān)系時(shí)指出,為了獲得護(hù)理機(jī)器人的積極情感交流,老年人可能夸大悲傷經(jīng)歷而變得更加多愁善感。Wynsberghe A V[43] 也指出,設(shè)計(jì)護(hù)理機(jī)器人應(yīng)重視 “關(guān)懷倫理”,其核心元素為關(guān)系、角色和責(zé)任,強(qiáng)調(diào)護(hù)理機(jī)器人的道德水平不只是關(guān)注照顧效率和隱私保護(hù),還需要考慮對(duì)被照料者的道德品格的影響。
在軍事領(lǐng)域,主要討論軍用武器系統(tǒng)應(yīng)用人工智能技術(shù)的倫理問(wèn)題,包括對(duì)人的尊嚴(yán)的影響和武器系統(tǒng)自主決策的道德責(zé)任問(wèn)題。自主武器系統(tǒng)使用傳感器獲取目標(biāo),會(huì)在人類難以直接干預(yù)決策情況下進(jìn)行自主攻擊[44-45]。Sharkey A[46]認(rèn)為目前自主武器系統(tǒng)無(wú)法理解或尊重生命的價(jià)值,使用武器系統(tǒng)做出殺人的決定是對(duì)生命不負(fù)責(zé)任的行為。因此,自主武器系統(tǒng)或軍用機(jī)器人的使用需要在最大限度減少間接傷害和實(shí)現(xiàn)軍事優(yōu)勢(shì)間進(jìn)行權(quán)衡。然而,一旦發(fā)生不必要的平民傷亡,明確追責(zé)或進(jìn)行懲罰都變得相當(dāng)困難[22,46-47]。
在政治領(lǐng)域,主要關(guān)注在人道主義援助和國(guó)家安全中應(yīng)用人工智能技術(shù)產(chǎn)生的倫理問(wèn)題。在人道主義援助方面,針對(duì)政治避難和移民的臨時(shí)收容所,利用無(wú)人機(jī)收集收容中心場(chǎng)地?cái)?shù)據(jù),盡管可以檢查中心的生活條件,但也減少了人與人之間的互動(dòng),如果未考慮無(wú)人機(jī)使用的潛在危害,可能傷害到受援助對(duì)象的尊嚴(yán)[20]。在國(guó)家安全方面,相關(guān)研究中提到國(guó)家安全機(jī)構(gòu)或其他政府機(jī)構(gòu)部署監(jiān)視系統(tǒng)用于控制和約束公民,引發(fā)了侵犯公民自由權(quán)利的爭(zhēng)論[27,33]。
在文化科學(xué)領(lǐng)域,主要關(guān)注在文化服務(wù)、教育中使用機(jī)器人產(chǎn)生的倫理問(wèn)題。如機(jī)器人可以代替圖書(shū)館工作人員進(jìn)行書(shū)籍訂購(gòu)、分類以及咨詢等工作,使相關(guān)人員感受到就業(yè)環(huán)境威脅,甚至產(chǎn)生心理健康問(wèn)題[24,48]。機(jī)器人教師、同伴在兒童教育中的應(yīng)用,可能因?yàn)殚L(zhǎng)時(shí)間陪伴和相處讓學(xué)生產(chǎn)生情感依戀,減少與人的相處,影響他們社交能力的發(fā)展[30]。
在交通運(yùn)輸領(lǐng)域,主要對(duì)自動(dòng)駕駛汽車應(yīng)用產(chǎn)生的倫理困境進(jìn)行探討。自動(dòng)駕駛汽車在即將發(fā)生交通事故時(shí)需要做出決策,在駕駛員、乘客、行人安全以及其他相關(guān)因素之間進(jìn)行權(quán)衡,面臨類似于人類社會(huì)的 “電車難題”,自動(dòng)駕駛汽車做出決定會(huì)使交通事故的責(zé)任歸屬變得更加復(fù)雜,引起道德責(zé)任主體與承擔(dān)方式的爭(zhēng)議[33,47]。此外,自動(dòng)化使得人們高度依賴技術(shù),一旦自動(dòng)化生產(chǎn)機(jī)器不能正常工作,工人缺乏替代機(jī)器進(jìn)行生產(chǎn)工作的能力,主管作為管理者同樣缺乏相關(guān)的專業(yè)知識(shí)和手工技能,使生產(chǎn)鏈的脆弱性增加[49-50]。
3. 5 對(duì)策層面
研究中針對(duì)人工智能技術(shù)應(yīng)用的倫理問(wèn)題提出的解決方法,根據(jù)借助的工具類型不同,將其分為社會(huì)方法和技術(shù)方法[15]。
3. 5. 1 社會(huì)方法
社會(huì)方法倡導(dǎo),將道德原則、法律法規(guī)等有助于規(guī)避倫理風(fēng)險(xiǎn)的社會(huì)規(guī)范融入人工智能技術(shù)設(shè)計(jì)與應(yīng)用場(chǎng)景,使個(gè)人或組織在社會(huì)環(huán)境中更負(fù)責(zé)任地使用人工智能技術(shù)。
一方面,根據(jù)道德原則建立技術(shù)規(guī)范要求,盡可能降低人工智能技術(shù)應(yīng)用中的倫理道德風(fēng)險(xiǎn)。例如,針對(duì)機(jī)器學(xué)習(xí)可能產(chǎn)生的偏見(jiàn)風(fēng)險(xiǎn),可以通過(guò)強(qiáng)調(diào)公正和尊重的道德原則來(lái)構(gòu)建公平、非歧視的社會(huì)[22],通過(guò)社會(huì)數(shù)據(jù)處理前的倫理分析或道德審查規(guī)避風(fēng)險(xiǎn)[29]。同時(shí),人工智能程序設(shè)計(jì)需要兼顧人工智能的 “理性代理”與 “對(duì)社會(huì)負(fù)責(zé)的代理”角色,設(shè)計(jì)高效且尊重人類社會(huì)的人工智能應(yīng)用[30]。針對(duì)人工智能技術(shù)可能破壞人類社會(huì)的民主、自由和公平,可以構(gòu)建一種介于嚴(yán)格監(jiān)管和自由放任之間的、積極主動(dòng)的技術(shù)民主化方法[33],對(duì)技術(shù)設(shè)計(jì)和應(yīng)用進(jìn)行規(guī)范化。此外,還可以建立適用于自主機(jī)器人開(kāi)發(fā)的公司或組織的道德責(zé)任規(guī)范體系,通過(guò)安全協(xié)議事先明確責(zé)任歸屬[39]。更多推廣 “以關(guān)懷為中心的價(jià)值敏感設(shè)計(jì)”方法,將倫理維度納入機(jī)器人設(shè)計(jì)和實(shí)現(xiàn)框架,這種方法目前主要應(yīng)用于醫(yī)療保健領(lǐng)域,通過(guò)設(shè)計(jì)過(guò)程的價(jià)值觀反思性評(píng)價(jià),規(guī)范機(jī)器人的護(hù)理實(shí)踐步驟[43]。
另一方面,使用約束力更強(qiáng)的法律法規(guī)應(yīng)對(duì)人工智能技術(shù)應(yīng)用的倫理問(wèn)題。例如,為了確保公共價(jià)值觀和人的基本權(quán)利在人工智能技術(shù)應(yīng)用中得到保障,Royakkers L 等[22]提出設(shè)計(jì)人員需要認(rèn)識(shí)并遵循國(guó)際條約中大數(shù)據(jù)監(jiān)管和算法透明度的有關(guān)規(guī)定。Vamplew P 等[47]提到設(shè)計(jì)自主軍事系統(tǒng)時(shí)應(yīng)保證機(jī)器的行動(dòng)符合 《戰(zhàn)爭(zhēng)法》和 《交戰(zhàn)規(guī)則》的有關(guān)規(guī)定。Ransbotham S 等[34]提到針對(duì)算法偏見(jiàn)和歧視問(wèn)題,應(yīng)參考國(guó)家法院 《民權(quán)法案》中相應(yīng)的法律原則,在美國(guó) 《民權(quán)法》第七章中就提到了有關(guān)的歧視案件的法律條文。
3. 5. 2 技術(shù)方法
技術(shù)方法是從技術(shù)操作層面思考解決方法,以降低人工智能技術(shù)應(yīng)用的倫理風(fēng)險(xiǎn)。
在數(shù)據(jù)操作方面,根據(jù)數(shù)據(jù)生命周期探討不同階段的倫理風(fēng)險(xiǎn)規(guī)避。例如,從數(shù)據(jù)采集來(lái)看, Robinson L 等[48]提出對(duì)機(jī)器人收集的信息進(jìn)行分類,建立各類信息合法獲取和使用的標(biāo)準(zhǔn),可以保護(hù)個(gè)人隱私信息。從數(shù)據(jù)處理來(lái)看,Hagendorff T[15]提到通過(guò)刪除敏感、受保護(hù)屬性,或者修正訓(xùn)練集消除倫理隱患。但是,非敏感屬性同樣存在產(chǎn)生歧視的可能,而且對(duì)訓(xùn)練數(shù)據(jù)集的修正可能降低數(shù)據(jù)分析的質(zhì)量和有用性。從數(shù)據(jù)組織來(lái)看,McDonough K 等[28]提出使用擴(kuò)展命名實(shí)體標(biāo)注具有歷史跨越的地理文本,綜合考慮地理空間位置和非地理空間或時(shí)間的多樣性信息,提高對(duì)空間歷史的解釋力度。從數(shù)據(jù)共享來(lái)看,Kuo T T 等[26]提出將隱私保護(hù)的學(xué)習(xí)模型與區(qū)塊鏈技術(shù)結(jié)合起來(lái)開(kāi)發(fā)通用的保護(hù)隱私的預(yù)測(cè)模型共享框架,為機(jī)構(gòu)間數(shù)據(jù)共享時(shí)的隱私保護(hù)提供幫助。
在算法模型方面,Ananny M[16]提到開(kāi)發(fā) “非監(jiān)督式學(xué)習(xí)”算法來(lái)識(shí)別數(shù)據(jù)集中可能導(dǎo)致歧視的模式或結(jié)構(gòu),避免總是基于一種假設(shè)而扭曲數(shù)據(jù)集。Marlies V D V 等[51]構(gòu)建了一個(gè)道德決策模型,針對(duì)不同的人機(jī)關(guān)系進(jìn)行不同道德模式的響應(yīng),輔助人工智能系統(tǒng)做出恰當(dāng)?shù)牡赖聸Q策。
在智能系統(tǒng)結(jié)構(gòu)方面,Arnold T 等[52]提出通過(guò)倫理核心應(yīng)對(duì)人工智能系統(tǒng)的道德威脅,倫理核心在智能系統(tǒng)的體系結(jié)構(gòu)中,位于硬件 ( 或最小操作系統(tǒng)層) 與虛擬機(jī)層之間,由場(chǎng)景生成,仿真引擎以及最小關(guān)閉 3 種機(jī)制組成。Malle B F[38]提出通過(guò)賦予機(jī)器人道德能力來(lái)解決倫理問(wèn)題,包括強(qiáng)化對(duì)道德詞匯的監(jiān)測(cè)、編寫(xiě)道德規(guī)范和道德事件評(píng)估的程序、建立道德推理和溝通的能力。
4 討 論
綜前所述,圖情 SSCI 期刊有關(guān)人工智能倫理問(wèn)題的研究在研究?jī)?nèi)容的廣泛性、領(lǐng)域的結(jié)合性上主要體現(xiàn)了如下特點(diǎn):
第一,研究?jī)?nèi)容涉及醫(yī)藥衛(wèi)生、文化教育、軍事、政治等多個(gè)領(lǐng)域,較為全面地涵蓋了從數(shù)據(jù)、算法到人工智能系統(tǒng)的不同層次,并以人工智能系統(tǒng)層面的問(wèn)題研究數(shù)量最多。
數(shù)據(jù)層面研究主要圍繞數(shù)據(jù)生命周期,探討采集、加工、組織、共享等過(guò)程中的隱私侵犯隱患和風(fēng)險(xiǎn)。如數(shù)據(jù)采集、傳播時(shí)采集原則解釋說(shuō)明缺失或者不充分[22,26]、數(shù)據(jù)標(biāo)注的不當(dāng)都可能帶來(lái)侵犯數(shù)據(jù)采集對(duì)象的隱私,給相關(guān)社會(huì)實(shí)體帶來(lái)傷害,引發(fā)社會(huì)倫理問(wèn)題。此外,數(shù)據(jù)的二次使用或再利用也會(huì)加大數(shù)據(jù)知情同意的實(shí)施和數(shù)據(jù)保護(hù)的困難而引發(fā)倫理問(wèn)題[30]。
算法層面的研究結(jié)合算法的特性,探討人工智能算法在具體應(yīng)用中引發(fā)的歧視、偏見(jiàn)、影響人類自主權(quán)等問(wèn)題。過(guò)度依賴人工智能算法結(jié)果會(huì)影響人的自主選擇[22]。同時(shí),根據(jù)算法的統(tǒng)計(jì)結(jié)果進(jìn)行決策可能導(dǎo)致某些歧視性的決定,從而延續(xù)甚至加深人類社會(huì)的偏見(jiàn)[30,32,35]。如地區(qū)經(jīng)濟(jì)水平的識(shí)別[15]、信用資質(zhì)的評(píng)估[32]、就業(yè)機(jī)會(huì)的分配[22,52]等。
人工智能系統(tǒng)層面主要從智能系統(tǒng)對(duì)人的尊嚴(yán)和權(quán)利,以及社會(huì)關(guān)系的影響角度進(jìn)行分析。例如探討人工智能系統(tǒng)與人類形成的社會(huì)關(guān)系對(duì)人類社會(huì)的影響[36]、在醫(yī)藥衛(wèi)生行業(yè)對(duì)護(hù)理治療對(duì)象的心理和精神的影響[36,40]以及自動(dòng)駕駛汽車[33,47]、自主軍事武器[39]等代替人類進(jìn)行決策對(duì)于人類生命和社會(huì)秩序的影響等。因?yàn)檫@些問(wèn)題的存在,研究者們也對(duì)機(jī)器倫理道德的設(shè)計(jì)方面進(jìn)行了探討,以及對(duì)智能機(jī)器的道德地位進(jìn)行討論,分析人工智能體是否享有道德權(quán)利或承擔(dān)道德責(zé)任等問(wèn)題[39,53]。
第二,研究視角覆蓋人本主義觀和技術(shù)主義觀,包括積極倫理和消極倫理兩類觀點(diǎn)傾向。消極倫理觀點(diǎn)更多考慮到人工智能技術(shù)帶來(lái)的倫理危機(jī),希望通過(guò)規(guī)則的制定讓問(wèn)題回歸傳統(tǒng)倫理規(guī)范[39]。積極倫理觀點(diǎn)則更多關(guān)注人工智能技術(shù)帶來(lái)的促進(jìn)與機(jī)遇[54]。
在人本主義觀視角下,以人與人類社會(huì)為中心,探討人工智能技術(shù)的應(yīng)用對(duì)社會(huì)中的個(gè)體以及整體產(chǎn)生的倫理影響。研究中探討較多的是人的隱私、平等、自主、自由、尊嚴(yán)等以及社會(huì)的歷史文化和社會(huì)聯(lián)系。如具有歷史和文化敏感性的數(shù)據(jù)組織不當(dāng)可能對(duì)社會(huì)的歷史文化帶來(lái)沖擊,影響到個(gè)人或群體的尊嚴(yán)[28]。推薦系統(tǒng)對(duì)特定人種的傾向可能導(dǎo)致偏見(jiàn)、不平等[33]。而醫(yī)療護(hù)理、娛樂(lè)陪伴等應(yīng)用中智能機(jī)器人對(duì)人際社會(huì)關(guān)系的影響也會(huì)對(duì)人們的心理和精神層面產(chǎn)生影響[36]。
在技術(shù)主義觀視角下,以數(shù)據(jù)、算法和智能體為中心,更多從數(shù)據(jù)化、算法和智能系統(tǒng)的應(yīng)用出發(fā),考慮數(shù)據(jù)化的重要性、算法的公平性,尤其是智能體的道德地位。如 Miao Z[21]通過(guò)文獻(xiàn)調(diào)研討論人工智能技術(shù)應(yīng)用中的人權(quán)倫理困境。又如,從機(jī)器人角度,探討機(jī)器的社會(huì)道德地位和機(jī)器人是否成為道德主體、擁有道德權(quán)利、承擔(dān)道德責(zé)任等問(wèn)題。對(duì)于機(jī)器道德地位問(wèn)題的探討主要是運(yùn)用對(duì)比分析的方法,將智能機(jī)器與人或動(dòng)物等社會(huì)實(shí)體進(jìn)行比較分析,基于哲學(xué)思維或理論進(jìn)行分析討論。在道德地位問(wèn)題上,Johnson D G 等[53]認(rèn)為,動(dòng)物和機(jī)器人的區(qū)別在于對(duì)痛苦的感受差異,對(duì)機(jī)器道德地位問(wèn)題的討論會(huì)細(xì)化出對(duì)機(jī)器享有道德權(quán)利和承擔(dān)道德責(zé)任等問(wèn)題的探究,但目前的觀點(diǎn)和看法尚未取得一致。
由上述分析可見(jiàn),圖情 SSCI 期刊論文探討的問(wèn)題與國(guó)內(nèi)外人工智能倫理研究[9-10]有著較高的一致性,人工智能算法與數(shù)據(jù)倫理控制、人工智能體設(shè)計(jì)、人工智能道德代理等均是整個(gè)領(lǐng)域關(guān)注的議題。尤其在機(jī)器人倫理方面,關(guān)于幼兒、老人看護(hù)機(jī)器人的倫理研究,機(jī)器人護(hù)理與受護(hù)理者尊嚴(yán)的倫理研究,戰(zhàn)爭(zhēng)機(jī)器人行為的倫理研究等也都在圖情 SSCI 期刊中有所體現(xiàn)。從研究機(jī)構(gòu)來(lái)看,研究者來(lái)自計(jì)算機(jī)科學(xué)、信息系統(tǒng)、信息技術(shù)、哲學(xué)、心理學(xué)、圖書(shū)情報(bào)、語(yǔ)言學(xué)等諸多學(xué)科。可見(jiàn),人工智能倫理問(wèn)題是一個(gè)與多學(xué)科交織的問(wèn)題領(lǐng)域。對(duì)于圖書(shū)情報(bào)領(lǐng)域而言,信息倫理、用戶隱私保護(hù)、數(shù)據(jù)與信息安全一直是關(guān)注的研究問(wèn)題,順應(yīng)人工智能時(shí)代發(fā)展的背景,有必要在倫理研究方面有所加強(qiáng),推動(dòng)健全圖情學(xué)科在交叉學(xué)科問(wèn)題上的研究方法體系建立,促進(jìn)信息管理技術(shù)在同步發(fā)展的倫理研究中健康發(fā)展,如下問(wèn)題值得進(jìn)一步研究:
一方面,加強(qiáng)對(duì)不同層次與應(yīng)用領(lǐng)域問(wèn)題的涉入和研究。結(jié)合信息生命周期管理階段[55] ( 如信息創(chuàng)建、信息采集、信息組織、信息存儲(chǔ)、信息利用和信息清理) ,從人工智能技術(shù)相關(guān)的數(shù)據(jù)、算法和人工智能系統(tǒng) 3 個(gè)方面進(jìn)一步加強(qiáng)相關(guān)研究的開(kāi)展。例如,在數(shù)據(jù)層面,加強(qiáng)在移動(dòng)互聯(lián)網(wǎng)應(yīng)用[56]、社交媒體[57]、公共信息資源管理等情境下,對(duì)數(shù)據(jù)采集方式、用途、規(guī)范使用、隱私保護(hù)的研究。在算法層面,加大對(duì)各類網(wǎng)絡(luò)搜索[58]、推薦等系統(tǒng)[59]中的偏見(jiàn)問(wèn)題研究。在人工智能系統(tǒng)層面,加強(qiáng)對(duì)豐富應(yīng)用場(chǎng)景下的探討,如圖書(shū)館中的智能咨詢服務(wù)機(jī)器人、盤點(diǎn)機(jī)器人、閱讀機(jī)器人等[60]在應(yīng)用中的倫理風(fēng)險(xiǎn),對(duì)現(xiàn)實(shí)從業(yè)人員的沖擊以及應(yīng)對(duì)等問(wèn)題。人工智能技術(shù)在圖情服務(wù)的應(yīng)用場(chǎng)景多樣[61],人工智能技術(shù)與知識(shí)服務(wù)基礎(chǔ)設(shè)施建設(shè)、智能知識(shí)化服務(wù)創(chuàng)新等方面的融合中都會(huì)涉及到不同層次的倫理問(wèn)題研究,都值得從研究脈絡(luò)溯源[62]、倫理風(fēng)險(xiǎn)識(shí)別與應(yīng)對(duì)、智能道德代理、用戶對(duì)智慧應(yīng)用態(tài)度[24]等角度進(jìn)行深入研究。
另一方面,加強(qiáng)對(duì)人工智能倫理倡導(dǎo)的規(guī)范與準(zhǔn)則研究。在人工智能技術(shù)應(yīng)用過(guò)程中,最大限度降低倫理風(fēng)險(xiǎn)與追求技術(shù)優(yōu)勢(shì)這兩個(gè)目標(biāo)可能存在的沖突,需要結(jié)合特定的應(yīng)用情境,分析不同倫理因素之間的關(guān)系,進(jìn)行綜合的分析和權(quán)衡。因此,未來(lái)研究需要進(jìn)一步探索人工智能技術(shù)在具體應(yīng)用中的倫理規(guī)范,豐富和完善人工智能倫理準(zhǔn)則。目前,諸多國(guó)家都從政府層面對(duì)人工智能實(shí)踐發(fā)展提供了政策支持與推動(dòng),在我國(guó),黨中央、國(guó)務(wù)院在人工智能發(fā)展規(guī)劃中都曾專門提及倫理問(wèn)題研究[3-6]。相比英、美、日等國(guó),我國(guó)在倫理規(guī)范與制度建設(shè)方面還有待進(jìn)一步深化。因此,進(jìn)一步加強(qiáng)對(duì)各國(guó)政府、國(guó)際組織,以及相關(guān)行業(yè)協(xié)會(huì)的人工智能倫理倡議、原則的研究[63],結(jié)合我國(guó)的應(yīng)用實(shí)踐狀況,探索從數(shù)據(jù)、算法、智能系統(tǒng)等微觀層面,到人工智能產(chǎn)業(yè)、人類社會(huì)秩序的宏觀層面的人工智能倫理規(guī)范與準(zhǔn)則的研制與貫徹,促進(jìn)我國(guó)人工智能技術(shù)在倫理規(guī)范指引下的健康發(fā)展,提升在推動(dòng)全球社會(huì)秩序穩(wěn)定中的地位和作用。
5 結(jié) 語(yǔ)
本研究運(yùn)用內(nèi)容分析法對(duì) WOS 圖書(shū)情報(bào)學(xué)科類目的文獻(xiàn)進(jìn)行分析,探討人工智能倫理問(wèn)題的研究現(xiàn)狀,結(jié)果表明,圖情學(xué)科 SSCI 期刊的論文從數(shù)據(jù)、算法以及人工智能系統(tǒng)等多個(gè)層面,結(jié)合政治法律、軍事、經(jīng)濟(jì)、文化科學(xué)、醫(yī)藥衛(wèi)生、交通運(yùn)輸?shù)葢?yīng)用領(lǐng)域,進(jìn)行了一系列的研究,探討人工智能技術(shù)對(duì)個(gè)體以及人類社會(huì)的影響; 并且,從人本主義觀點(diǎn)和技術(shù)主義觀點(diǎn)角度進(jìn)行了共同的探討,從社會(huì)方法和技術(shù)方法角度提出了應(yīng)對(duì)的策略。在此基礎(chǔ)上展望了圖情領(lǐng)域的未來(lái)研究問(wèn)題。
本研究的不足主要包括,盡管調(diào)查的文獻(xiàn)來(lái)自圖情學(xué)科 SSCI 期刊論文,這些文獻(xiàn)只能有限地反映圖情學(xué)科對(duì)人工智能倫理問(wèn)題的研究狀況,還需要結(jié)合學(xué)者發(fā)文角度,以及人工智能技術(shù)應(yīng)用的實(shí)踐角度進(jìn)行綜合分析。同時(shí),加強(qiáng)與相關(guān)學(xué)科人工智能倫理問(wèn)題研究的比較,進(jìn)一步結(jié)合圖情領(lǐng)域的典型應(yīng)用與服務(wù)場(chǎng)景,分析人工智能技術(shù)的應(yīng)用現(xiàn)狀、發(fā)展趨勢(shì),以及伴生的倫理風(fēng)險(xiǎn)與應(yīng)對(duì),與相關(guān)學(xué)科一同促進(jìn)人工智能技術(shù)整體的健康發(fā)展。
論文指導(dǎo) >
SCI期刊推薦 >
論文常見(jiàn)問(wèn)題 >
SCI常見(jiàn)問(wèn)題 >