有反对者担心,一项即将修法的条文可能会为政府利用人工智能削减福利、对领取者实施制裁打开法律漏洞。
不过,社会发展部(MSD)表示,并无计划使用生成式人工智能或自动决策来做出此类决定。
已通过一读的《社会服务修正法案》中新增条款,显著扩大了可由自动化系统做出的决策范围,包含制裁措施。内阁已同意今年为求职者引入一系列新的义务与制裁机制。
救世军警告称,一旦为AI裁定福利制裁打开大门,将难以再关上。
政策分析师Ana Ika表示,救世军反对该法案的修订内容,因为它不仅扩大了「红绿灯制度」下的制裁范围,也为AI在福利决策中的广泛应用铺路。
「这项法案会让我们所支持的人群情况变得更糟,会让更多人陷入贫困,增加他们获取所需帮助的障碍与困难。」
她指出,条文中扩展AI适用范围的内容,使得政府未来有可能将与制裁相关的决策自动化。
「你一旦打开这个法律漏洞,未来可能演变到什么程度?AI虽名为智能,但它并不真正具备智能——真正的智能部分仍在发展中。这意味着,它可能会作出不公平的决定,让原本就处于社会边缘的人群更被边缘化,情况更恶化。」
救世军和律师协会均在向国会专责委员会提交的意见书中,呼吁删除该条款。
救世军在意见书中指出,自动化决策「无法顾及我们所服务个体的复杂背景」,如财务困境、成瘾、心理健康问题或居住不稳定等情形。
「自动化系统有可能作出不当决定,加剧我们所协助人群的困境。」
社会发展部表示,目前计划使用基础AI来判断申请续领Jobseeker福利的人是否履行了相关义务,但不会利用自动化决策来拒绝其申请。
根据法案拟议的更改,领取该项福利者将需每六个月重新申请一次,而非一年一次。
Ana Ika指出,这将加重社会发展部的工作负担,但这些决定应由人工完成。
「我们理解效率的诉求,但这份效率是有代价的——对我们来说,这个代价是贫困的加剧,也会让我们支持的人处境更加艰难。」
律师协会则希望全面删除有关扩大AI使用的条款。
「这令人严重担忧,尤其是在制裁条文涉及评估判断时,例如金钱管理或社区服务等情境。」
律师协会在意见书中指出,目前并没有足够的保障机制,而2022年为社会发展部制定的标准,在新法下可能已无法提供有效保障。
「在如今可能使用自动化系统来实施制裁与惩罚性限制的情况下,这种标准的松散令人担忧。如果法案按目前版本通过,该标准恐怕将无法继续作为足够的保障措施。」
社会发展部表示,正在与隐私专员协商,审查该项标准。组织保障与沟通事务副首席执行官Melissa Gill表示,自动化用于提升福利系统中决策的效率与一致性。
她举例说,若以人工方式处理冬季能源补贴,需动用600名员工、耗时两个月。
Gill表示,目前尚未使用生成式人工智能。
「必须强调的是,社会发展部目前的自动化决策并不包含生成式AI,比如ChatGPT这类工具,」她说。「我们不会也无计划使用生成式AI或自动决策系统来处理履行义务失败或制裁相关的决定。」
她指出,社会发展部希望谨慎且负责任地使用此类技术。
她表示,现行的《自动决策标准》为良好实践提供了框架,并设有具体保障措施,包括确保领取者获得应得福利,不被歧视。
「我们现在确保所有新的自动决策流程都符合该标准的设计要求,以便能够检查其运行是否如预期。」
国会专责委员会预计将在4月22日之前向国会提交报告。