系统决策并测量其准确性,可靠性和可重复性的能力是有限的。需要持续的研发投资来提高对人工智能系统的信任,以确保满足社会需求并充分满足稳健性,公平性,可解释性和安全性的要求。对人工智能研发的长期承诺对于继续和扩展当前的技术进步至关重要,并且更广泛地确保人工智能丰富了人类的经验。事实上,2019年“维持美国人工智能领导力行政命令”指出:执行或资助研发(AI研发机构)的执行机构负责人应将AI视为代理机构的研发优先事项,视各自机构的任务而定。这些机构的负责人在制定预算提案和规划时应考虑到这一优先事项。在2020财年和未来几年使用资金。这些机构的负责人还应考虑采取适当的行政行动,以提高对2019年人工智能的关注。26https://ai100.stanford.edu/sites/g/files/sbiybj9861/f/ai100report10032016fnl_singles.pdf27http://cdn./2018/Ai%20%索引202018%,2020%20RePort.PDF28https:///ccc/visioning/visioning-activities/2018-activities/artificial-intelligence-roadmap/29https://-us/research/research-area/artificial-intelligence/30https:///ccc/events/artificial-intelligence-roadmap-workshop-3-learning-and-robotics/31https:///ccc/wp-content/uploads/sites/2/2016/04/AI-for-Social-Good-Workshop-Report.pdf32https:///blog/ai-pute/