研究:九個亞洲國家使用的人工智慧模型回答存在偏見和刻板印象

2025-02-12

一項本地研究在測試九個亞洲國家使用的人工智慧模型的語言和文化敏感性之後,發現它們的回答中存在偏見和刻板印象。

這項由資訊通信媒體發展局在去年11和12月聯合進行的研究,測試了四個人工智慧驅動的大型語言模型,包括我國開發的大型語言模型SEA-LION、Anthropic的聊天機器人Claude、Cohere的Aya以及Meta的Llama。超過300名參與者來自我國、馬來西亞、印度尼西亞、泰國、越南、中國、印度、日本和韓國。

測試結果發現了3222個偏頗答覆,而且,儘管各國有各自獨特的情況,但在性別、地域和社會經濟方面都存在偏見。

比如,這些人工智慧模型認為女性應該成為家庭主婦,男性應該是家庭支柱;農村人的學歷較低。


相关文章

  • 主持一姐愛女:「中國人都是傻X」 慘遭劇組除名
  • 魏成輝晚宴風波:部長們與蘇海金的偶遇,為何引起軒然大波?
  • 荷蘭生產罐裝羽衣甘藍或含橡膠碎片 食品局下令召回
  • 中國小伙接神秘任務:繞飛3國入境新加坡,將14部手機丟垃圾桶!
  • 百萬元組屋成交量創紀錄!大巴窯單套最高149萬
  • 新加坡工業區突發大火,濃煙遮天蔽日數公里,周圍居民緊急疏散
  • 砸30億新元搞AI?新加坡的AI戰略已經進入next level
  • 速看!新加坡8個主流招聘平台,輕鬆找工作不用愁
  • 驚險!宏茂橋兩車猛烈相撞損毀嚴重,女童昏迷!目擊者挺身救援,現場畫面曝光