科技倫理是指科技創新活動中人與社會、人與自然、人與人之間關系的思想和行為準則,規定了科技工作者及其所在群體應當遵守的價值觀、社會責任和行為準則。
研究人員指出,科技工作者的科學道德和社會責任關系到整個社會的發展前途。科技倫理,這個過去很陌生的詞,近年來頻頻出現在科技報刊和網站上。
科技倫理面臨的主要問題
1,濫用科技
目前科技尤其是人工智能的濫用存在很多問題,比如智能寫作的濫用,導致互聯網上近15%的新聞流量。由於網絡上的文章良莠不齊,機器學習形成的智能寫作中甚至存在大量的錯誤、語言暴力、偏見和歧視。
2.隱性侵權
包括侵犯隱私,隱形算法歧視等人權。比如臉書某人臉同性戀傾向識別應用,可以通過人臉識別人群中的同性戀者,通過算法收集分析社會上現有的隱形職業性別歧視後,LinkedIn等公司可以根據算法推薦公開實現壹個職位只需要男性的目的。
3.抑制發展
倫理道德在不斷發展,但不成熟的科技倫理在壹定程度上抑制了科技的創新和發展。比如,如果公眾的認知仍然不及時,實施科學活動就會被認為是違反公共秩序。輸血導致多人死亡的案例引發了人們對輸血科學性的抵制。
4.邊界比例尺
法規與道德的邊界也成為科技倫理立法與公約的邊界尺度問題。比如大數據采集者將信息數據用於算法優化和服務改進是合理的,但將私人信息用於私人目的是不合適的。如果是以營利為目的出售,就會涉及法律問題,但是這個法律和公約的邊界尺度還是很難把握的。
5.責任和安全
科技沒有善惡之分。科技的創造和科技的運用是兩個截然不同的領域。同時,比如人臉識別技術就有被破解的風險。蜂巢盒智能快遞櫃刷臉取件系統被小學生用打印照片破解;某大學人臉識別門禁被學生用老師照片騙。
6.智能權利
在智能應用不斷叠代更新的今天,智能學習和深度學習讓人工智能更加人性化。壹方面要壹直用機器人三原則來保證智能邏輯和位置問題,另壹方面也要從長遠考慮AI的人道主義待遇,也就是未來要定義人工智能的權利。