研究人员发现,在发现人工智能逻辑不一致上,提出问题的组的得分高于其他两组。根据在德国汉堡举行的 CHI(Conference on Human Factors in Computing System)会议上发表的一篇新论文,提出问题的方法也让人们感到要对人工智能的决策更负责。研究人员表示,这可以降低对人工智能生成信息过度依赖的风险。
在此次 CHI 会议上发表的另一篇论文中,扎尔曼森和来自美国康奈尔大学、德国拜罗伊特大学以及微软研究院的研究团队发现,即使人们不同意人工智能聊天机器人的陈述,他们仍然倾向于使用人工智能输出的内容,因为他们认为它看起来比自己写的高级得多。维埃加斯说,一个挑战将是找到最合适的度,既能提高用户的识别力,又能同时保持人工智能系统的便捷。