人工智能逆天 偏見歧視根深蒂固
學習人類語言時產生了偏見和歧視。那麼這種偏見是可以消除的嗎?
中國研制的智能美女機器人“佳佳”
人工智能的偏見來自於人類
英國《衛報》發表的一篇文章指出,計算機在學習人類語言時吸收了人類文化中根深蒂固的觀念,產生了偏見和歧視。
實際上,人工智能的偏見和歧視早就引起了人們的注意,較典型的是微軟2016年3月23日推出的人工智能聊天機器人Tay。設計的最初目的是讓其成為一個善解人意的小女孩,為用戶排憂解難。但是,上線第一天Tay就變成了一個滿口粗言穢語的種族主義者,發表了不少白人優越的言論,甚至還變成了希特勒的粉絲,要發起種族滅絕戰爭。經過調教,Tay於2016年3月30日再次上線,但舊病復發,不得不再次下線。
一項發表於《科學》雜志(2017年4月14日)的研究揭示了人工智能的毛病來源於人類。
人類自誕生以來和在演化進程中一直充斥著偏見,而且從人類社會組成以來,更充滿相當多的負面和人性的弱點,所有這些都會體現在人類的文化中。而文化的載體就是語言,所以所有的偏見都可以從語言和語義中找到根源。人工智能將對人類造成威脅
人工智能將對人類造成難以控制的威脅,這是史蒂芬·霍金對人類發出的警告,機器人會以比人類快得多的速度進化,它們的最終目標將無法預測。
隨著人工智能的發展,機器能獨立選擇並針對目標開火的可能性也逐漸增高。未來的自動武器或“殺人機器人”,或許很快就能從科幻電影走向現實。
這並不是霍金第一次警告機器人“起義”的危險。就在2015年,他警告稱隨著人工智能逐漸學習著為自己考慮,並且更加適應環境,人類正面臨著不確定的未來。
霍金的說法,一場潛藏的威脅正在硅谷的技術實驗室中悄悄醞釀。人工智能偽裝成數字輔助設備和自動駕駛的交通工具,正在人類社會中逐漸站穩腳跟,它們或許有朝一日將導致人類的終結。在一次采訪時,霍金表達了對人類未來的擔憂,“我不認為人工智能領域的進步一定是有益的,人工智能的全面發展可能意味著人類的終結。我們需要確保人工智能的設計符合倫理,並且有到位的防護措施。”
點個贊吧!您的鼓勵讓我們進步
這條新聞還沒有人評論喔,等著您的高見呢
人工智能的發展,給人類帶來便利的同時也帶來了各種麻煩,例如計算機在中國研制的智能美女機器人“佳佳”
人工智能的偏見來自於人類
英國《衛報》發表的一篇文章指出,計算機在學習人類語言時吸收了人類文化中根深蒂固的觀念,產生了偏見和歧視。
實際上,人工智能的偏見和歧視早就引起了人們的注意,較典型的是微軟2016年3月23日推出的人工智能聊天機器人Tay。設計的最初目的是讓其成為一個善解人意的小女孩,為用戶排憂解難。但是,上線第一天Tay就變成了一個滿口粗言穢語的種族主義者,發表了不少白人優越的言論,甚至還變成了希特勒的粉絲,要發起種族滅絕戰爭。經過調教,Tay於2016年3月30日再次上線,但舊病復發,不得不再次下線。
一項發表於《科學》雜志(2017年4月14日)的研究揭示了人工智能的毛病來源於人類。
人類自誕生以來和在演化進程中一直充斥著偏見,而且從人類社會組成以來,更充滿相當多的負面和人性的弱點,所有這些都會體現在人類的文化中。而文化的載體就是語言,所以所有的偏見都可以從語言和語義中找到根源。人工智能將對人類造成威脅
人工智能將對人類造成難以控制的威脅,這是史蒂芬·霍金對人類發出的警告,機器人會以比人類快得多的速度進化,它們的最終目標將無法預測。
隨著人工智能的發展,機器能獨立選擇並針對目標開火的可能性也逐漸增高。未來的自動武器或“殺人機器人”,或許很快就能從科幻電影走向現實。
這並不是霍金第一次警告機器人“起義”的危險。就在2015年,他警告稱隨著人工智能逐漸學習著為自己考慮,並且更加適應環境,人類正面臨著不確定的未來。
霍金的說法,一場潛藏的威脅正在硅谷的技術實驗室中悄悄醞釀。人工智能偽裝成數字輔助設備和自動駕駛的交通工具,正在人類社會中逐漸站穩腳跟,它們或許有朝一日將導致人類的終結。在一次采訪時,霍金表達了對人類未來的擔憂,“我不認為人工智能領域的進步一定是有益的,人工智能的全面發展可能意味著人類的終結。我們需要確保人工智能的設計符合倫理,並且有到位的防護措施。”
分享: |
注: |