莫讓AI成“幫兇”
謠言止于“治者”
□濰坊融媒評論員 薛靜
據(jù)央視新聞報道,“西安突發(fā)爆炸”“重慶巫溪一民房發(fā)生爆炸事故”……這些聳人聽聞的消息,竟都是利用AI軟件炮制的謠言。近日,一些不法分子為賺取平臺流量補貼,實現(xiàn)流量變現(xiàn),利用AI合成技術(shù)編造謠言,嚴重擾亂社會秩序。
曾經(jīng),“有圖有真相”是網(wǎng)民分辨互聯(lián)網(wǎng)新聞?wù)婕俚闹匾椒ㄖ?。如今,伴隨著科技的發(fā)展,利用AI造謠博取流量的行為已經(jīng)屢見不鮮,“有圖也不一定有真相”令大眾叫苦不迭。
利用AI造謠,幾乎零成本,收益卻非??捎^。據(jù)相關(guān)報道,一些機構(gòu)利用AI最多時一天能生成4000至7000篇謠言信息,初步估算每天的收入在1萬元以上。如此高的收益,怪不得不法分子趨之若鶩。
這些令人觸目驚心的數(shù)字背后,也意味著虛假信息擴散的成本急劇降低。尤其是涉及公共秩序、民生政策等方面的謠言,不僅誤導(dǎo)大眾,更易引起恐慌,嚴重的甚至可能會引發(fā)社會信任危機。由于網(wǎng)絡(luò)謠言往往伴隨網(wǎng)絡(luò)暴力,謠言傳播過程中,針對個人或者特定群體的誹謗中傷、信息泄露等事件時有發(fā)生,對群眾的人身安全也構(gòu)成了威脅。如果不對這種不法行為加以嚴懲,不僅會破壞社會信息生態(tài),也會影響AI的正常發(fā)展。
科技進步應(yīng)以人為本,“刀能救人也能傷人”,只有把握AI正確發(fā)展方向,為其劃定紅線禁區(qū),才能確保AI成為“科技紅利”而不是“科技威脅”。為AI發(fā)展“穩(wěn)舵”,一方面需要加快建立相關(guān)治理系統(tǒng),在研發(fā)之初就設(shè)立“道德門檻”,考慮清楚如何防止技術(shù)作惡,如在生成的文本或圖像中設(shè)置特殊標記,用以區(qū)分現(xiàn)實和AI作品。另一方面,要對AI造謠行為予以嚴厲懲處,明確違法人員的違法成本及所承擔(dān)責(zé)任,讓造謠者付出更大的代價,最大程度遏制不法行為。
AI發(fā)展是大勢所趨,對技術(shù)的盲目樂觀與恐懼都不可取。只有在規(guī)范上下足功夫,推動AI健康、可持續(xù)發(fā)展,才能讓這項技術(shù)真正造福社會、造福人類。
責(zé)任編輯:平小娜