我们与AI 伦理与监管的距离

Dominic Sage

AI 越来越像人,然后咧?我们与「AI 伦理与监管」的距离,比想像中更近

你有没有发觉,最近跟朋友喝茶吹水,话题越来越「科幻」了?不是那种外星人入侵的科幻,而是那种……「昨天我在 TikTok 刷到一个影片,那个明星讲的话,好像是假的?」或者「我公司 HR 好像用 AI 筛履历,我朋友 resume 写得不错,结果连面试都没有,是不是被 AI 刷掉了?」我们这一代人,小时候看《I, Robot》觉得那是很远以后的事。结果现在,AI 会画画、会写诗、会帮你排 schedule,甚至还会陪你聊天。但问题来了:当 AI 越来越像人,甚至开始替人做决定的时候,谁来管它?谁为它的错负责?这就是我们今天想跟你聊的——【 AI 伦理与监管 】。我知道,这几个字听起来很重,像那种要穿西装打领带才能谈的东西。但其实不是的,它跟你我的日常生活,关系比你想像中更紧。

【 AI 伦理与监管 】到底在讲什么?先别怕,我们用生活来讲

很多人一听到「伦理」就觉得是哲学家的事,一听到「监管」就觉得是政府的事。但简单来说,AI 伦理与监管关心的,其实就一个问题:AI 做出来的事,公不公平、安不安全、合不合规?我举一个马来西亚人很有感的例子——JPJ 的 AI 摄像头。你现在开车过 certain highway,如果没系安全带、玩手机,不是被 mata 拦下来,而是直接被 AI 拍到,然后 saman 寄回家。这时候你有没有想过:如果 AI 认错车牌怎么办?如果它拍到的是司机在喝水,却判成玩手机,你能去哪里上诉?

这就是 AI 伦理在问的问题:谁为 AI 的错误负责?又或者,你最近可能听过身边朋友抱怨:「我申请贷款,银行讲 AI 系统算出来我的风险太高,不批。」但你朋友月入 RM8,000,供一辆 Myvi,从来没迟还过 PTPTN,为什么会这样?原来,那套 AI 的 training data 可能来自某个国家、某种特定族群的习惯,放在马来西亚 context,根本不准。

这就是另一个核心问题:AI 的 bias(偏见)从哪里来?很多人不知道的是,AI 其实不是「客观」的。它学什么,就变成什么。如果训练它的数据里面本来就有 bias——比如过去十年批贷款的人,多数拒绝某一种族或性别的申请——AI 学下去,就会把这种 bias 放大,甚至变本加厉。所以,AI 伦理与监管不是冷冰冰的法律名词,它其实是在帮我们问:这些越来越聪明的系统,到底有没有在公平对待每一个人?

为什么公司突然酱紧张”AI 伦理与监管“?原来是因为钱和官司

AI 伦理与监管

我有个朋友在银行做 compliance,以前他的工作就是看 AML(反洗钱)那些文件,现在他每天开会都在讲 AI governance。我问他做么酱忙,他讲:「老板怕被罚款啦。」是的,你没听错。现在不只人犯错会被罚,AI 犯错,公司也要扛。欧盟那边已经跑得很快,AI Act 直接给 AI 分级——你风险高,我就管你严。你拿 AI 去做 hiring、做 credit scoring、做 critical infrastructure,不好意思,你要 prove 你的系统够 fair、够透明、够 accountable。

马来西亚呢?虽然我们的 AI 法规还没像欧盟那样「一杆打死」,但国行(Bank Negara)、证券委员会(SC)这些 regulator,已经在默默出 guideline,要求金融机构和上市公司交代:你怎么用 AI?你怎么 manage AI 带来的风险?你的 AI 有没有 bias?如果你有留意新闻,去年新加坡那边已经有公司因为用 AI 面试时涉嫌歧视,被人权组织告。这种事,迟早会发生在马来西亚。所以你会发现,现在越来越多公司开始谈 AI 企业合规风险。不是因为它们突然变善良,而是因为它们怕赔钱、怕被告、怕 reputation 扫地。

这时候,市场上开始出现一些专门帮企业「检查 AI 有没有问题」的工具或顾问服务。像是 QIAI 这类平台,做的就是帮企业去 assess 他们的 AI 系统有没有 bias、有没有 privacy risk、有没有 compliance 漏洞。不是那种「讲一大堆理论」的 consulting,而是真的可以跑 testing、出 report、帮你去跟 auditor 解释的那一种。当然,这只是其中一个例子。重点是,AI 风险管理已经从「nice to have」变成「must have」。

你以为只有你在用 AI,其实是 AI 在用你

AI 伦理与监管

聊到 AI 伦理,不能不提 AI 数据隐私问题。我们马来西亚人其实很矛盾。一方面,我们很怕人家知道我们的事;另一方面,我们又在社交媒体上把生活 all out 晒出来。但 AI 时代的隐私问题,比你想象中更「隐形」。

你有没有发现,有时候你跟朋友在 WhatsApp 讲要买某样东西,转身打开 Lazada 或 Shopee,首页就出现那个东西?很多人会讲「手机在偷听」,但其实更常见的是:你的行为模式、你的 typing speed、你停留在一个页面的时间,全都被 AI 拿去分析,然后「预测」你想要什么。这不是 conspiracy theory,这是 real business。

但问题是,当 AI 越来越会「预测」我们,它会不会也开始「操控」我们?比如,它知道你今天心情不好,就 push 你买更多东西?它知道你最近在查 loan,就故意把高利息的产品推给你?这就是为什么 AI 负责任使用那么重要。不是叫公司不要用数据,而是用数据之前,要想清楚:这样用,会不会害到人?有没有侵犯到人家的 privacy?有没有让用户觉得「毛毛的」?在欧洲,GDPR 已经给了用户「被遗忘权」——你可以要求公司删掉你的数据。在马来西亚,虽然 PDPA(个人资料保护法)还在 update 中,但方向是一样的:数据是你的,不是你送给公司随便用的。

马来西亚 AI 法规走到哪里?我们其实没有很慢,但……

AI 伦理与监管

讲到这里,你可能会问:马来西亚政府到底有没有在做事?有,但节奏是那种「怕太快出错,又怕太慢跟不上」的感觉。2024 年,政府推出了 National AI Office,也发布了 AI 监管的初步框架。目前的方向不是「直接立法打死」,而是先出 code of conduct、guideline,让业界有 time frame 去 adapt。但坦白讲,这种「soft approach」也有风险。因为 AI 跑得太快了,等我们慢慢谈完 ethics、开完 public consultation,可能新的 AI 模型又出来了,旧的 guideline 直接过时。

所以现在很多大公司,其实是自己在 push 自己。它们请 AI governance officer,做 internal audit,买 third-party 的合规工具,不是因为政府逼,而是因为 international client 会问、investor 会问、insurance company 会问。这也解释了为什么 AI 监管趋势 2026 会走向「hybrid model」——政府给大方向,但细节由 industry 自己 fill in,然后用 market force(比如 insurance、investment)去 enforce。

AI 伦理与监管,最终是「人」的问题

我跟你讲这么多,不是要吓你,也不是要叫你去读 law。我只是想让你知道,AI 伦理与监管这件事,不是 only for 工程师、律师或 regulator。它是 for 每一个在用 AI、或正在被 AI 用的人。下一次,当你发现 AI 好像怪怪的——比如它一直推荐你不想看的东西、它好像对某些人特别不公平、它问你太多私人问题——你可以停下来,问一句:「这样对吗?」

这,就是 AI 伦理的起点。而监管,只是把这种「对与错」的共识,变成大家可以 follow 的 rules。我们都在 learning curve 上。AI 在学做人,我们也在学怎么跟 AI 做邻居。只要 keep asking,keep questioning,我们就不会那么容易被它「带偏」。毕竟,AI 再聪明,它也是我们造出来的。怎么用、怎么管,最后还是回到我们自己的 choice。

关于 AI 伦理与监管,大家最近都在问什么?

我们整理了一些马来西亚朋友最常问的问题,用白话讲给你听。

1) AI 做决定如果出错,我们普通人可以去哪里投诉?
答:目前马来西亚还没有一个专门「投诉 AI」的单一柜台。但根据情况,你可以试试不同的管道:如果是银行或金融相关的 AI 决定(比如贷款被拒),可以先向银行的 customer service 或 compliance 部门反映;如果是涉及个资滥用,可以向 Personal Data Protection Department (PDPD) 投报;如果觉得涉及歧视或不公,也可以寻求 National Human Rights Commission (SUHAKAM) 的协助。重点是,先搞清楚是哪一类的 AI、谁在用,再找对的门。
2) 公司要用 AI 来面试或评估员工,在马来西亚合法吗?
答:目前没有法律明文禁止,但已经有 guideline 在规范。国行、证券委员会等机构已经开始要求金融机构和上市公司,如果用 AI 做人事决策,必须确保系统没有 bias、过程透明、并且有人工复核的机制。简单来说,用 AI 可以,但公司要证明它「公平」,不能黑箱作业。如果员工觉得自己因为 AI 而被不公平对待,理论上可以透过劳工法或人权管道申诉,只是过程会比较漫长。
3) 我们每天用的 ChatGPT 或 AI 工具,会偷走我们的 data 吗?
答:这取决于你给的 data 是什么。像 ChatGPT 这类工具,通常会把你的对话内容拿去「训练」模型(除非你 opt-out),所以如果你不小心把公司机密、客户名单、甚至自己的 IC 号码打进去,这些资料就有可能变成 AI 的一部分,理论上也可能在别人的对话里「不小心出现」。建议是:不要把私人或敏感资料丢进 public AI 工具。如果真的要用,可以查一下它们的 privacy policy,看有没有关掉数据训练的选项。
4) 如果我发现 AI 对我有 bias(偏见),可以告它吗?
答:目前你不能「告 AI」,因为它不是 legal entity。但你可以告用 AI 的公司。比如说,如果 AI 在筛选租客时歧视你的种族,或者贷款系统因为你的性别而调高利率,这些都可以被视为「歧视行为」,公司必须负责。马来西亚的联邦宪法已经保障人人平等,加上现有的 consumer protection 框架,只要你能证明 bias 真的造成损失,是有机会采取法律行动的。不过这类案件目前在本地还很少,需要更多案例来推动 clearer 的法律。
5) 马来西亚有自己的 AI 法律吗?跟国外有什么不同?
答:目前我们还没有像欧盟 AI Act 那样「一部 law 管完」的法律。马来西亚的做法比较偏向「慢慢来」,先由政府发布 guideline、code of conduct,让业界试跑,再观察要不要立法。目前 National AI Office 和相关的监管框架已经在建,但速度比欧美慢,比一些东南亚国家快一点点。跟国外最大的不同是,我们的监管会比较「弹性」,不会一开始就罚太重,而是希望 industry 先有 awareness 和 self-regulation 的能力。
Share This Article