人工智慧偏見 聊天機器人歧視言論又一樁,避免AI偏見企業該提前注意哪三件事? 日前,南韓新創公司研發的聊天機器人露達(Lee Luda),因為被揭露針對少數族群發表歧視性言論而引發輿論嘩然,導致服務被迫暫停。這並不是第一起聊天機器人因為不當言論而被迫停止服務的案例,隨著AI應用越來越為廣泛,相關歧視與偏見問題也層出不窮,究竟企業如何提前部署和遵守以避免偏見的產生?