機器人在很多行業已經變得司空見慣,例如醫療保健、軍事和安保。然而,最近人們已經開始討論機器人的倫理問題。
幾個月前,英國標準協會(BSI)提出了一個類似的文件“BS8611機器人和機器人裝置”,是一種在機器人中嵌入倫理風險評估的一種方法。這個文件是由科學家、學者、倫理學家、哲學家和用戶等組成的委員會寫的,目的是供機器人和機器人設計者和管理者使用,幫助人們識別和避免潛在的倫理傷害。文件規定“機器人不應該被設計為單獨或協助殺死或傷害人類”,并且“人類應當為機器人負責任,而不是反過來”。
最近硅谷機器人也推出了一個善良機器人設計委員會(Good Robot Design Council),這個委員會為機器人和學者推出了“5大機器人法則”為機器人在日常生活中的倫理提供指南:
1.機器人不應該被設計為武器。
2.機器人應遵守現行法律,包括隱私權。
3.機器人是產品,應當安全、可靠,不得歪曲他們的功能。
4.機器人是人類制造的工藝品:情感和代理的錯覺不應該被用于利用弱勢用戶。
5.應該找出誰對機器人負責。
使用機器人和自動化技術來提高工作的效率、靈活性和適應性是制造業增長的重要組成部分。為了提高機器人的使用范圍,必須確定和解決倫理問題和危害,例如,導致人類非人性化或對機器人的過度依賴等。
雖然這些標準建立在不同類型的機器人之上,但它認識到機器人和自動系統在日常生活中存在潛在的倫理風險,特別是當機器人充當護理或陪伴角色時。
PARO治療機器人已經被世界各地的養老院廣泛應用為老人的伴侶,而且這項服務取得了巨大成功。但是當這樣的關系結束時會發生什么?索尼的AIBO機器狗就是一個很好的例子。AIBO機器狗發布于1999年,2006年停產。對于許多業主來說,AIBO就像一只寵物慢慢死去一樣,在日本甚至出現了AIBO狗葬禮。現實是,當人們將機器人當作寵物或人類時,人們正在與這些機器人建立情感聯系。
雖然機器人沒有意識,但是,有些機器人正被用于暴力行為。例如,飛行的機器人——無人機,被用來在平民和戰區進行無人戰斗;在美國機器人被用來引爆炸彈來制服嫌犯。這是美國警察部門第一次使用遠程定位爆炸物殺死嫌疑人。
如果軍事和警察被排除在善良機器人設計委員會和BSI的“不傷害”承諾之外,這樣的先例就不應當成立。而這些只有時間才能給出答案。