人工智能改變遊戲,研究人員呼籲責任實踐

儘管近期經濟形勢不利,但電子遊戲行業仍是娛樂業中最賺錢的業務之一。

這並非偶然;遊戲工作室花費數億美元來使他們的遊戲規模更大、更具沉浸感,以吸引新玩家和長期玩家。

圖形正逐漸逼近“恐怖谷”範疇

像 Meta 和索尼這類公司持續借助其混合現實頭戴設備及其他傳感技術,模糊物理世界與數字世界的界限

與此同時,人工智能被譽爲科技領域的下一個大事件,電子遊戲製造商將其應用於多種流程,比如爲不可玩角色進行編程、創建程序生成的關卡、管理遊戲聊天記錄,以及定製和個性化遊戲內的體驗

可以肯定的是,該行業處於前沿,但一個經常被忽視的方面是開發者在使用這些技術製作遊戲時必須應對的倫理挑戰。

圍繞數據隱私、有偏見的算法,以及在人工智能助力下更使人沉迷的誘人遊戲循環,有重要的討論有待開展

因此,隨着人工智能在遊戲開發中繼續發揮更大的作用,遊戲開發者應如何更負責任地使用它?

東北大學的研究人員在新發表於《遊戲:研究與實踐》的一篇文章中直面探討了這個問題,他們建議遊戲行業應採用爲新興的負責任的人工智能領域開發的工具和框架。

“很顯然,遊戲行業在人工智能方面正面臨着不同程度的風險,然而倫理方面卻滯後了,”體驗式人工智能研究所負責任的人工智能實踐主任、該研究的作者之一坎蘇·坎卡(Cansu Canca)說。

她補充說:“遊戲設計師們擔心,要是沒有恰當的倫理指導,他們也不曉得怎麼去應對這些複雜又新穎的倫理問題。”

這篇文章的其他作者有東北大學的研究人員安妮卡·瑪麗·舍恩(Annika Marie Schoene)和勞拉·哈伯·伊爾(Laura Haaber Ihle)。

雖然人工智能在遊戲開發中通過多種不同方式得以應用,但作者聚焦於幾個特定的痛點,包括遊戲開發者如何利用人工智能開發遊戲機制,生成式人工智能如何用於圖像創作和其他創意追求,以及公司如何收集和使用用戶數據。

研究人員表示,遊戲工作室通常是大規模的運營機構,有多個部門,涵蓋數十個團隊和個體工作者。這些公司規模越大,存在孤立部門和溝通障礙的可能性就越大。

因此,一個有效的人工智能倫理框架從一開始就被設計成融入公司層級系統的各個部分。研究人員表示,在實踐中,一個全面的人工智能倫理框架可以幫助各方——從設計師和程序員到故事作者和營銷人員——就特定的人工智能用例做出更好的決策,並且應該“基於道德和政治哲學的基本理論”。

坎卡說:“在某種意義上,更廣泛的負責任的人工智能框架在應用於遊戲時不一定會改變。”

例如,研究人員寫道,風險評估工具能夠幫助遊戲開發者在實施之前權衡某些用例的利弊。全面的風險評估概述了所提議的使用和技術的優缺點以及潛在的積極和消極結果。

“使用人工智能倫理風險和影響評估工具可以使遊戲設計師和開發者評估遊戲以及所整合的人工智能系統對個人自主性和能動性的影響、其潛在的危害風險和潛在益處,以及在目標受衆和更廣泛社會中負擔與益處的分配狀況,”他們寫道。

研究人員強調,這只是開發者在更大框架中可加以利用以協助此過程的一種工具。其他應該成爲這個人工智能框架一部分的工具包括某些人工智能技術的偏差測試和錯誤分析。

人工智能開發中的另一個重要考慮因素是公司如何使用數據來幫助訓練他們的模型並提升他們的盈利底線。

研究人員表示,類似於美國當前使用的娛樂軟件評級委員會系統的評級標籤的使用,在向遊戲玩家傳達與數據和人工智能倫理相關的風險這一方面,存在嚴重不足。

研究人員解釋說,相反,類似於在負責任的人工智能領域內開發的模型卡以及人工智能和數據標籤的方法將爲這一過程帶來更多透明度,並涵蓋詳細信息,比如開發者在遊戲製作中如何使用人工智能以及在遊戲中如何收集和使用用戶的特定數據。

“數據非常有價值,而且這類信息可能不只是用於重新訓練模型,”舍恩說道。

“我想知道我的數據發生了什麼。我想知道我的遊戲風格如何給遊戲中的任何代理提供信息併產生影響,”她補充道。

但舍恩強調,如果明智地使用,人工智能可以幫助擴大這個行業並引入新玩家。

“是的,有這麼多需要權衡的地方,”她說。“有危險,但也有積極的方面。如果做得正確,人工智能可以用於使遊戲更容易被不同能力的人玩到。”