機器人成為熱門話題。
突然之間,整個科技產業都陷入人工智慧的熱潮之中,提供給用戶可以完成簡單工作、節省時間和保持高效的人工智慧助手。僅在本月,微軟(Microsoft, MSFT-US)和Facebook都發表了開發者工具,讓構築機器人更加容易。
這種對機器人的熱潮勢必將引起新的經濟競爭,這些隱藏在資訊平台和搜尋引擎裡的助手將會爭奪我們的用戶興趣。現在,機器人應用可能還局限於一些無關緊要的功能,比如通過訊息預定披薩或者在Slack上購買捲餅。但是,隨著聊天機器人不斷成長、業務不斷熟練,他們可以提供更加智能更加個性化的體驗。想像一下,一個機器人可以幫你解決法律事務,甚至你的心理健康問題。
而這一點也是程式設計師們必須謹慎的地方。當機器人走入人類生活時,那些訓練不當或者監控不足的機器人可能會被壞人所利用。不用擔心,這不會成為電影裡展示的機器人暴動,但是不法之徒會利用機器人去做一些欺詐之事,具體例子可以參考微軟開發的Tay。科技公司在開發可對話機器人時必須時刻銘記一些重要的事情。
突發行為
作為一個可以學習的機器人,人工智慧可以獲得一些程式未指定的技能並完成相應的任務。機器人專家稱之為突發行為。機器人常常可以無需人類的指導或干涉學會一些任務。就以微軟的Tay為例,雖然最初程式只是設定為從交流中學習,但是最終卻讓她變成了充滿仇恨的納粹分子。而預防這種情況的關鍵是主動監測。
Nora Reed,多款Twitter機器人的創造者,他說:“雖然我會對所有的機器人進行檢查,但是無論我怎麼做,它都有可能因為我所輸入的東西而產生問題內容。所以我會避免一些特定的內容,因為我不想讓事情往邊緣化或者偏執化的方向發展。”
鑑於像微軟或者Facebook這樣的公司規模,微信希望能夠監測機器人的部署過程,對審查技術的人數存在擔憂是完全合理的。微軟未來社會實驗室的負責人Lili Cheng表示,該公司正在構想另一種類型的工具,可以幫助開發人員更好的警惕機器人的行為是否符合預期。Cheng指出,開發人員希望知道他們的機器人是否可以看到交通中的奇怪行為或者是否會發送不適當的內容。
雖然有事後分析,但是機器人程式設計師應該在設計機器人的時候就避免機器人出現突發行為。解決這個問題的方法是限制可獲得數據的主體,或者將機器人語庫裡不適當的詞語列入黑名單。專攻聊天機器人的交互設計師Caroline Sinders表示,這些都是常見的做法。
Sinders說:“由於所有涉及種族歧視的答案都已經被公司清除,所以是很難讓保險機器人變的種族歧視。如果你問一個負責船險的機器人有關披薩餅的問題,它會回答’對不起,我不明白。”
不要讓我的人性愚弄你
當你和聊天機器人進行對話時,很明顯你是和軟體對話而非人類,所以這樣的對話往往顯得僵硬。但是有些機器人卻非常善於聊天,以至於你很難確定是否是和程式碼進行交流。Samford大學的法律教授Woodrow Hartzog說:“披露在這裡就顯得非常重要,當人們覺得自己是和人類對話而實際上卻是和機器人時,會出現一些問題。”
微軟在一定程度上強調了披露的重要性。其開發行為規範裡要求在歡迎界面上幫助用戶了解他們是與軟體進行交流。
例如Amazon非常受歡迎的內置機器人硬體設備Alexa就是一個簡單的女性的名字。Hartzog說:“在一定程度上是無法從名字來判斷是否是機器人,這樣的設置實際上是有問題的。但是如果你的產品介紹是’我的名字是Chatterbot,我是自動化數位助理’,那麼你至少會注意到你所交流的是機器人而非人類。”
在這個階段,欺騙或許還不是一個巨大的問題,Facebook和微軟所創造的大多數機器人可以明顯看出是機器人。Sinders說:“Siri存在一些機器人式的答案,在與它們進行交流時,可能有一半的回覆是’對不起,我不明白’。這種回覆會很快洩露機器人的本質。”
但是它們具備愚弄人的能力,而且這種能力只會增長。Ashley Madison證明過這個問題。臭名昭著的“婚外情網站駭客事件”揭露了它們假裝是調情的女性引誘了超過7萬名男性。
隨著科技產業迎來了機器人時代,在謹記機器人的便利和高效之時也要記住它們只是程式碼是很重要的。由於它們被設計允許擁有自己的想法,所以需要擁有一個監管體制來確保它們會按照要求完成任務。
《獵雲網》授權轉載