最好看的新闻,最实用的信息
11月22日 °C-°C
纽币 : 人民币=4.2284

亚洲国家纷纷推出AI主播,人工智能新闻播报的明与暗(组图)

2023-07-17 来源: 澳大利亚广播公司ABC中文 原文链接 评论0条

本文转载自澳大利亚广播公司ABC中文,仅代表原出处和原作者观点,仅供参考阅读,不代表本网态度和立场。

当法哈达·因迪(Fahada Indi)在雅加达拥挤的集市上挤奶时,她的老板要求她现场播报新闻。

不久后,一个酷似因迪的虚拟人脸出现在了印尼主要电视网之一TVOne的演播室中。

但屏幕上显示的名字并非因迪。

这个人脸是TVOne利用人工智能(artificial intelligence, 简称:AI)技术创造的化身。

“有了这项人工智能技术,我就可以在任何地方进行新闻播报,之后我的化身就会出现,”因迪告诉澳大利亚广播公司(ABC)。

亚洲国家纷纷推出AI主播,人工智能新闻播报的明与暗(组图) - 1

法哈达-因迪(Fahada Indi)说,她并不担心人工智能会抢走工作,相反,她看到了这项技术的益处。 (Supplied: TVOne)

TVOne在4月份推出了人工智能主播纳迪拉(Nadira)和莎斯亚(Sasya),也让其成为印尼首家以该方式使用这项争议技术的电视网。

但在近期亚洲各国播报新闻时事的AI主播中,纳迪拉和莎斯亚也只是其中的两个例子,这种做法通常是为了满足不同的文化和语言需要。

遍地开花的AI主播

中国在2018年成为了全球首个使用AI新闻主持人的国家,两位西装革履的男子代表中国国有媒体新华社进行要闻播报,其中一人使用中文,另一人则说英文。

紧随其后的是印度,今年4月,他们在总理莫迪出席一次活动时推出了AI主播萨娜(Sana)。

如今,她每天都会在今日印度集团(India Today Group)的Aaj Tak频道播报好几次新闻。

该媒体集团的副总裁形容这个AI机器人“聪明、漂亮、不老、不知疲倦”。

萨娜并非现有新闻主播的化身,而是拥有自己的形象和个性。

“很高兴成为Aaj Tak的首位AI主播。体育&拼图爱好者”,萨娜的推特简介写道。

“分享失败菜谱。旅行,冒险。骄傲做自己!”

上周末,第二位AI新闻主播也在印度亮相,这位出现在奥迪沙邦(Odisha)私人新闻频道上的主播用英语和该邦使用的奥迪沙语播报新闻。

上月开始,台湾的民视新闻网(FTV)也有了一位AI天气播报员。

虽然一些亚洲国家似乎正抓住媒体领域使用人工智能的机会,但澳大利亚人可能对AI还怀有戒备。

市场研究公司益普索全球顾问公司(Ipsos Global Advisor)本周进行的最新调查显示,在31个受访国家中,澳大利亚人对AI担忧最甚。

亚洲国家纷纷推出AI主播,人工智能新闻播报的明与暗(组图) - 2

TVOne的AI新闻主播莎斯亚在4月份首次与纳迪拉合作。 (Supplied: TVOne)

《全球看AI2023》(The Global Views on AI 2023)调查显示,69%的澳大利亚受访者表示,他们对这项技术感到紧张。

研究显示,澳大利亚人对不同类型的产品和服务中AI应用的理解也落后于大多数国家的人。

与此同时,印尼人是信心最高的人群之一,有48%受访者表示AI让他们感到紧张。

日本人则对AI最放松,只有23%的成年人对该技术表示担忧。

AI新闻主播如何工作?

近来在媒体上有很多关于AI带来负面效应的评论,从潜在的大规模失业到错误信息横行。

TVOne的AI项目顾问阿巴奈·杰亚·普特拉(Apni Jaya Putra)表示,他们正尝试通过对技术的不完全依托来平衡主播的角色。

普拉杰先生告诉ABC,由于通过技术已经可以模拟人声,所以广播节目可以“百分百”交给AI主持。

但他表示,TVOne仍然决定保留主播的真实声音,以保证更高的准确性,同时防止科技导致的失业。

亚洲国家纷纷推出AI主播,人工智能新闻播报的明与暗(组图) - 3

阿巴奈·杰亚·普特拉表示,TVOne不会把真人主播全部换掉。 (Supplied)

“我们的感情是人工智能无法替代的,”因迪表示。

“因为我们有语调和情感,所以AI主播的声音出来后也不是完全没有情绪的。”

因迪说,由于人工智能让她可以随时随地播报新闻,所以让她的工作变得更轻松了。

她可以录下自己的声音,发送给演播室团队,几秒钟内,就可以看到纳迪拉用自己的声音在播音。

因迪说,即便是在展会人潮中录下的声音,“仍然是有噪音的,但人工智能团队设法消除了噪音”。

因迪说,AI的另一个好处是能够利用语音克隆(voice cloning)功能,把她的声音翻译成不同的语言,从而扩展受众。

有哪些危险?

普特拉先生表示,TVOne通常会使用另一种AI技术来检查语言翻译。

来自昆士兰科技大学( Queensland University of Technology)的数字媒体观察者艾伯特兹·普利斯特纳(Albertus Prestianta)警告称,这可能会带来问题。

其中之一是AI语音克隆恐会产生的错误信息,因为没办法保证这种操作的准确性。

普利斯特纳先生表示,语言是一种文化产品,而每一种文化产品都必须保有其社会和文化背景。

“我认为仍然需要招募一名语言学家来确保语境的恰当性,”普利斯特纳先生说。

虽然普利斯特纳先生鼓励TVOne的创新,但他也说:“这项技术仍然必须由人类操作和控制”。

“这样决策者才是人类。”

亚洲国家纷纷推出AI主播,人工智能新闻播报的明与暗(组图) - 4

艾伯特兹·普利斯特纳表示,AI将带来令人兴奋的机遇,但培养数字素养,保护公众免受错误信息的侵害也一样重要。 (Supplied )

普利斯特纳先生也对AI生成新闻的可查证性表示担忧。

从新闻主播到政治家,全世界无一例外都在努力解决网上深度伪造(deepfake)的应对问题。

深度伪造是对图像、视频或音频进行操纵和篡改,从而歪曲某人做了或说了某些并不存在的事情。

据报,中国政府的关联团队曾在去年2月利用AI生成的深度伪造新闻主播,在社交媒体平台推广亲中国政府的宣传视频。

普利斯特纳先生表示,在技术快速发展的时代,深度伪造无可避免,但教育和数字扫盲将对此有所助益。

澳大利亚的立场是什么?

墨尔本皇家理工大学(Royal Melbourne Institute of Technology,简称:RMIT)资深媒体与传播讲师詹姆斯·米斯(James Meese)表示,尽管澳大利亚拥有技术可以开始在不同媒体领域应用AI,但各新闻机构的操作仍然谨慎。

人工智能时代来临 全球如何立法监管AI技术?

“澳大利亚新闻编辑室正处于接触人工智能的早期阶段,但人工智能肯定进入了他们的视野,”他说。

“目前正在制定有效整合这些技术的战略,但各公司都意识到了其中的风险,他们正在推进前仔细权衡利弊。”

《卫报》(The Guardian)称,生成式AI工具“激动人心,但目前尚不可靠”。

《卫报》新闻与媒体部(Guardian News & Media)成立了一个人工智能工作组,以评估如何应对人工智能技术带来的风险和机遇。

“如果我们希望在工作中添加AI生成要素,我们只会在有明确证据证明有具体益处、有人工监督以及有高级编辑明确许可的情况下进行,”首席执行官安娜·贝特森(Anna Bateson)和《卫报》总编凯瑟琳·维纳(Katharine Viner)在上月的一份联合声明中表示。

“我们这么做的时候会对读者公开。”

亚洲国家纷纷推出AI主播,人工智能新闻播报的明与暗(组图) - 5
新华社新闻主播邱浩站在以他为原型的AI虚拟新闻主播旁边。 (Reuters: E Xiaoying/Qianlong.com)

ABC的新闻标准编辑马特·布朗(Matt Brown)则表示,公司目前还没有在报道中使用AI的明确计划。

但他表示,ABC正在“仔细研究和思考”如何使用这项技术。

“我们没有计划使用AI生成的图像或声音来呈现新闻,”他说。

“我们对AI的首要关切与我们对其他任何事情的首要关切一致,那就是准确性、公正性,为我们的社区利益尽我们最大的努力。”

ABC知悉,九号电视网(Nine Network)已经排除了在新闻简报和报道中使用AI的可能性,取而代之的是将其用于制作额外的内容,如体育赛场高光时刻集锦。

虽然更多的传统媒体采取了谨慎态度,但自诩为“青年文化中心”的The Brag Media却对尝试AI撰写报道的机会表示欢迎。

“就像计算器的发明没有使数学家贬值,Photoshop[译注:图像编辑软件]没有使艺术家贬值一样,人工智能写作也不会使记者和新闻作者贬值,”首席执行官卢克·吉吉斯(Luke Girgis)在1月的一篇领英(LinkedIn)帖子中写道。

益普索澳大利亚主管戴维·艾略特(David Elliott)表示,长期以来,AI在澳大利亚的形象一直都有问题,要增强人们对AI的信心需要就AI的用法及工作原理开展更多教育。

“需要围绕这项技术开展大众教育,特别是其在提高工作效率和改善日常生活方面的潜力,”他说。

本文转载自澳大利亚广播公司ABC中文,仅代表原出处和原作者观点,仅供参考阅读,不代表本网态度和立场。

今日评论 网友评论仅供其表达个人看法,并不表明网站立场。
最新评论(0)
暂无评论


Copyright Media Today Group Pty Ltd.隐私条款联系我们商务合作加入我们

分享新闻电话: (02) 8999 8797

联系邮箱: [email protected] 商业合作: [email protected]网站地图

法律顾问:AHL法律 – 澳洲最大华人律师行新闻爆料:[email protected]