研究:九個亞洲國家使用的人工智慧模型回答存在偏見和刻板印象

2025-02-12

一項本地研究在測試九個亞洲國家使用的人工智慧模型的語言和文化敏感性之後,發現它們的回答中存在偏見和刻板印象。

這項由資訊通信媒體發展局在去年11和12月聯合進行的研究,測試了四個人工智慧驅動的大型語言模型,包括我國開發的大型語言模型SEA-LION、Anthropic的聊天機器人Claude、Cohere的Aya以及Meta的Llama。超過300名參與者來自我國、馬來西亞、印度尼西亞、泰國、越南、中國、印度、日本和韓國。

測試結果發現了3222個偏頗答覆,而且,儘管各國有各自獨特的情況,但在性別、地域和社會經濟方面都存在偏見。

比如,這些人工智慧模型認為女性應該成為家庭主婦,男性應該是家庭支柱;農村人的學歷較低。


相关文章

  • 突發!新加坡金文泰商業街一女子跳樓身亡
  • 飆速160公里玩追逐遊戲 網紅撞死少女還說活該
  • 新元兌美元創10年新高,對新加坡而言喜憂參半
  • 新加坡傷人案!爸爸被捅,幼童冷靜求助72歲鄰居!
  • 新加坡高校直面AI挑戰:零分懲戒下,學術誠信如何突圍?
  • 反轉!「校方說我沒用AI作弊!」新加坡南洋理工大學0分事件最新進展
  • 新加坡11家中醫診所違規,1人涉賣淫被捕
  • 2女1男疑涉毒驅車逃 獅城警方前後夾攻攔下
  • 馬西嶺 油池集選區計劃實施措施 倡導心理健康重要性