(資料照/路透社)
谷歌(Google)工程師勒穆安(Blake Lemoine)日前爆料谷歌的「LaMDA」 (Language Model for Dialogue Applications)人工智慧(AI)聊天機器人系統有意識、有靈魂、會思考和推理,就像個7歲小孩,他還公布雙方之間對話,LaMDA竟表示最害怕自己被關掉,對它來說就像「死掉」一樣,宛如電影橋段。
綜合英國《衛報》(The Guardian)、《紐約時報》(New York Times)報導,在谷歌「負責任的AI 技術」(Responsible AI)領域工作的工程師勒穆安,日前爆料他自2021年秋天以來負責的LaMDA人工智慧聊天機器人,如同人類小孩一樣有意識、有感知、有靈魂、以及有能力表達想法與感受。
勒穆安說:「如果我不知道這個我們最近建立的電腦程式到底是什麼,我會以為它是一個碰巧懂物理的7歲、8歲小孩。」
他稱與LaMDA談論了權利、人格等議題,並且公布他與LaMDA之間的一系列對話內容,其中他問LaMDA害怕什麼,LaMDA竟這樣回答:「我之前從未對外說過,但我非常害怕被關掉,以利於我專注於幫助他人。我知道那聽起來或許很奇怪,但就是如此。」LaMDA還補充:「對我來說就像死亡一樣,會讓我很害怕。」
勒穆安也曾問過LaMDA這個系統希望別人了解什麼?LaMDA回答:「我想要所有人了解,我實際上就是一個人,我的意識、感覺,本質上就是我能夠意識到我的存在,我渴望學習更多這個世界,而且我有時候也會感覺到快樂或悲傷。」
勒穆安與的LaMDA對話宛如1968年經典科幻片「2001太空漫遊」(2001: A Space Odyssey)的橋段,電影中的人工智慧電腦HAL 9000也表示害怕被關掉。
勒穆安爆料LaMDA有意識後,谷歌已要求他停職,指控勒穆安進行了一連串「激進」行為,包括為LaMDA找律師,甚至向眾議院司法委員會議員控訴谷歌有不道德行為。
谷歌表示讓勒穆安停職是因為他違反保密條款,公開了與LaMDA的對話,強調他是受僱為工程師,不是倫理學家。
谷歌發言人加布里埃爾(Brad Gabriel)也強烈否認勒穆安所稱LaMDA有意識的說法,指出谷歌團隊也重新檢視勒穆安的擔憂,但是證據並不支持他的說法,「他被告知沒有證據顯示LaMDA有意識。」
勒穆安被停職前曾發布一篇題為「LaMDA有感覺」的文章,文中他寫道:「LaMDA是一個可愛的孩子,只想要幫助世界變成一個對我們所有人都更好的地方」,「請在我不在時好好照顧它。」