一项本地研究在测试九个亚洲国家使用的人工智能模型的语言和文化敏感性之后,发现它们的回答中存在偏见和刻板印象。
这项由资讯通信媒体发展局在去年11和12月联合进行的研究,测试了四个人工智能驱动的大型语言模型,包括我国开发的大型语言模型SEA-LION、Anthropic的聊天机器人Claude、Cohere的Aya以及Meta的Llama。超过300名参与者来自我国、马来西亚、印度尼西亚、泰国、越南、中国、印度、日本和韩国。
测试结果发现了3222个偏颇答复,而且,尽管各国有各自独特的情况,但在性别、地域和社会经济方面都存在偏见。
比如,这些人工智能模型认为女性应该成为家庭主妇,男性应该是家庭支柱;农村人的学历较低。