AI 越来越像人,然后咧?我们与「AI 伦理与监管」的距离,比想像中更近
你有没有发觉,最近跟朋友喝茶吹水,话题越来越「科幻」了?不是那种外星人入侵的科幻,而是那种……「昨天我在 TikTok 刷到一个影片,那个明星讲的话,好像是假的?」或者「我公司 HR 好像用 AI 筛履历,我朋友 resume 写得不错,结果连面试都没有,是不是被 AI 刷掉了?」我们这一代人,小时候看《I, Robot》觉得那是很远以后的事。结果现在,AI 会画画、会写诗、会帮你排 schedule,甚至还会陪你聊天。但问题来了:当 AI 越来越像人,甚至开始替人做决定的时候,谁来管它?谁为它的错负责?这就是我们今天想跟你聊的——【 AI 伦理与监管 】。我知道,这几个字听起来很重,像那种要穿西装打领带才能谈的东西。但其实不是的,它跟你我的日常生活,关系比你想像中更紧。
【 AI 伦理与监管 】到底在讲什么?先别怕,我们用生活来讲
很多人一听到「伦理」就觉得是哲学家的事,一听到「监管」就觉得是政府的事。但简单来说,AI 伦理与监管关心的,其实就一个问题:AI 做出来的事,公不公平、安不安全、合不合规?我举一个马来西亚人很有感的例子——JPJ 的 AI 摄像头。你现在开车过 certain highway,如果没系安全带、玩手机,不是被 mata 拦下来,而是直接被 AI 拍到,然后 saman 寄回家。这时候你有没有想过:如果 AI 认错车牌怎么办?如果它拍到的是司机在喝水,却判成玩手机,你能去哪里上诉?
这就是 AI 伦理在问的问题:谁为 AI 的错误负责?又或者,你最近可能听过身边朋友抱怨:「我申请贷款,银行讲 AI 系统算出来我的风险太高,不批。」但你朋友月入 RM8,000,供一辆 Myvi,从来没迟还过 PTPTN,为什么会这样?原来,那套 AI 的 training data 可能来自某个国家、某种特定族群的习惯,放在马来西亚 context,根本不准。
这就是另一个核心问题:AI 的 bias(偏见)从哪里来?很多人不知道的是,AI 其实不是「客观」的。它学什么,就变成什么。如果训练它的数据里面本来就有 bias——比如过去十年批贷款的人,多数拒绝某一种族或性别的申请——AI 学下去,就会把这种 bias 放大,甚至变本加厉。所以,AI 伦理与监管不是冷冰冰的法律名词,它其实是在帮我们问:这些越来越聪明的系统,到底有没有在公平对待每一个人?
为什么公司突然酱紧张”AI 伦理与监管“?原来是因为钱和官司

我有个朋友在银行做 compliance,以前他的工作就是看 AML(反洗钱)那些文件,现在他每天开会都在讲 AI governance。我问他做么酱忙,他讲:「老板怕被罚款啦。」是的,你没听错。现在不只人犯错会被罚,AI 犯错,公司也要扛。欧盟那边已经跑得很快,AI Act 直接给 AI 分级——你风险高,我就管你严。你拿 AI 去做 hiring、做 credit scoring、做 critical infrastructure,不好意思,你要 prove 你的系统够 fair、够透明、够 accountable。
马来西亚呢?虽然我们的 AI 法规还没像欧盟那样「一杆打死」,但国行(Bank Negara)、证券委员会(SC)这些 regulator,已经在默默出 guideline,要求金融机构和上市公司交代:你怎么用 AI?你怎么 manage AI 带来的风险?你的 AI 有没有 bias?如果你有留意新闻,去年新加坡那边已经有公司因为用 AI 面试时涉嫌歧视,被人权组织告。这种事,迟早会发生在马来西亚。所以你会发现,现在越来越多公司开始谈 AI 企业合规风险。不是因为它们突然变善良,而是因为它们怕赔钱、怕被告、怕 reputation 扫地。
这时候,市场上开始出现一些专门帮企业「检查 AI 有没有问题」的工具或顾问服务。像是 QIAI 这类平台,做的就是帮企业去 assess 他们的 AI 系统有没有 bias、有没有 privacy risk、有没有 compliance 漏洞。不是那种「讲一大堆理论」的 consulting,而是真的可以跑 testing、出 report、帮你去跟 auditor 解释的那一种。当然,这只是其中一个例子。重点是,AI 风险管理已经从「nice to have」变成「must have」。
你以为只有你在用 AI,其实是 AI 在用你

聊到 AI 伦理,不能不提 AI 数据隐私问题。我们马来西亚人其实很矛盾。一方面,我们很怕人家知道我们的事;另一方面,我们又在社交媒体上把生活 all out 晒出来。但 AI 时代的隐私问题,比你想象中更「隐形」。
你有没有发现,有时候你跟朋友在 WhatsApp 讲要买某样东西,转身打开 Lazada 或 Shopee,首页就出现那个东西?很多人会讲「手机在偷听」,但其实更常见的是:你的行为模式、你的 typing speed、你停留在一个页面的时间,全都被 AI 拿去分析,然后「预测」你想要什么。这不是 conspiracy theory,这是 real business。
但问题是,当 AI 越来越会「预测」我们,它会不会也开始「操控」我们?比如,它知道你今天心情不好,就 push 你买更多东西?它知道你最近在查 loan,就故意把高利息的产品推给你?这就是为什么 AI 负责任使用那么重要。不是叫公司不要用数据,而是用数据之前,要想清楚:这样用,会不会害到人?有没有侵犯到人家的 privacy?有没有让用户觉得「毛毛的」?在欧洲,GDPR 已经给了用户「被遗忘权」——你可以要求公司删掉你的数据。在马来西亚,虽然 PDPA(个人资料保护法)还在 update 中,但方向是一样的:数据是你的,不是你送给公司随便用的。
马来西亚 AI 法规走到哪里?我们其实没有很慢,但……

讲到这里,你可能会问:马来西亚政府到底有没有在做事?有,但节奏是那种「怕太快出错,又怕太慢跟不上」的感觉。2024 年,政府推出了 National AI Office,也发布了 AI 监管的初步框架。目前的方向不是「直接立法打死」,而是先出 code of conduct、guideline,让业界有 time frame 去 adapt。但坦白讲,这种「soft approach」也有风险。因为 AI 跑得太快了,等我们慢慢谈完 ethics、开完 public consultation,可能新的 AI 模型又出来了,旧的 guideline 直接过时。
所以现在很多大公司,其实是自己在 push 自己。它们请 AI governance officer,做 internal audit,买 third-party 的合规工具,不是因为政府逼,而是因为 international client 会问、investor 会问、insurance company 会问。这也解释了为什么 AI 监管趋势 2026 会走向「hybrid model」——政府给大方向,但细节由 industry 自己 fill in,然后用 market force(比如 insurance、investment)去 enforce。
AI 伦理与监管,最终是「人」的问题
我跟你讲这么多,不是要吓你,也不是要叫你去读 law。我只是想让你知道,AI 伦理与监管这件事,不是 only for 工程师、律师或 regulator。它是 for 每一个在用 AI、或正在被 AI 用的人。下一次,当你发现 AI 好像怪怪的——比如它一直推荐你不想看的东西、它好像对某些人特别不公平、它问你太多私人问题——你可以停下来,问一句:「这样对吗?」
这,就是 AI 伦理的起点。而监管,只是把这种「对与错」的共识,变成大家可以 follow 的 rules。我们都在 learning curve 上。AI 在学做人,我们也在学怎么跟 AI 做邻居。只要 keep asking,keep questioning,我们就不会那么容易被它「带偏」。毕竟,AI 再聪明,它也是我们造出来的。怎么用、怎么管,最后还是回到我们自己的 choice。
关于 AI 伦理与监管,大家最近都在问什么?
我们整理了一些马来西亚朋友最常问的问题,用白话讲给你听。