新闻写作中的人格化手法******
谭宏伟
人最关心自己的同类。
写给人看的新闻不应忽视人。
如果在新闻导语或新闻主体中注入人的因素,使新闻人格化,无疑会引起读者的注意,增强新闻的可读性。
人格化是一种写作技巧,美国新闻学者麦尔文•曼切尔把它解释为:“找出一个人,一个有代表性的人,他是受影响的或者卷入的,把这个人作为某一情况、或者这一情况的原因或后果的例子而写。”包括写人的语言、人的神态、人的动作、人的感觉,总之是人的外在和内在。
人格化的最大优势在于它可以使抽象的东西具体化,缩短读者与新闻的距离。这一点在涉及抽象东西诸如思想、发展、态势等报道中表现尤其突出。请看下例:
中新社北京电 一位顾客理完发,起身准备付款。但他被告知,由于理得不太成功店里不收他钱。
北京石景山区的这家春光理发店不久前租赁给私人经营了,店经理说,坚持这种优质服务,“会给我们带来更多的顾客。”
这是一篇题为《租赁使北京的服务业充满生气》电讯的导语。租赁制是当时北京经济领域的一个新态势,文章突破了枯燥的统计数字加呆板的叙述模式,而是以一位顾客的经历(理发)似乎又有些出人意料的经历(理发不付钱)为开篇引出下文租赁制对整个北京服务业的影响。这样,读者就通过一个人的亲身经历来体会租赁制使北京服务业充满生气的空泛概念,抽象的“租赁”具体化了,使读者易于理解、易于接受。
人格化的手法可以增加新闻的现场感。因为人格化的手法往往是通过活跃在新闻现场的人的活动来表现。请看下例:
中新社北京电 数不清的目光投向一位斜戴法兰绒帽子、披着时髦的砖红色春季女大衣的风姿绰约的女郎。当北京市春夏时装展销会今天在北京展览馆开幕时,这个放在进门大厅的模特成了最引人注目的人物。
观众像潮水一般涌入展销会的大门。
……
这是一篇题为《北京市春夏时装展销会开幕》消息的导语。这则普普通通的展销会新闻由于导语中这位“风姿绰约的女郎”而增色不少。“数不清的目光投向一位斜戴法兰绒帽子、披着时髦的砖红色春季女大衣的风姿绰约的女郎。”一语勾画出展销会进门大厅的现场气氛。读者受其感染自然也同文中观众一样被这位模特所吸引。对记者接下来描述发生兴趣,记者描述了展销会的规模、品种、销售情况,其中包括最受欢迎的和最受冷落的服装。由于文章有很强的现场感,读者看这条消息仿佛亲历展销会现场。现场感会令读者兴味大增。
人格化的手法,由于注重写人,因而使新闻有人情味。请看下例:
美联社伦敦电 诞生刚刚四星期的吉玛•查瓦茨基得到了一件独特的礼物——一位电子计算机“保姆”。
这个“保姆”没有围裙和温暖的怀抱,却有磁带和打字键盘。
它的名字叫“奥卡三世”,孩子们无需叫她“阿姨”。吉玛的父亲、二十八岁的电子计算机专家詹米•查瓦茨基是这具电子保姆的研制者,他说:“父母对孩子的爱是任何东西都不能代替的。我们也并不打算用它代替”。
……
小吉玛哭闹的时候,他可以哄她,给她讲故事。到孩子学说话时,奥卡三世也能教她说英语、法语和德语。
……
事实上,奥卡三世不光是个保姆。它的身上还装了各种家务事的程序——它能拉开电灯、打开汽车车库大门、甚至还能防盗、防贼。
……
这是一篇很精彩的科技新闻。没有晦涩难懂的科技术语。读者是在计算机保姆和一般保姆对比中了解它“没有围裙和温暖的怀抱,却有磁带和打字键盘”的特点;认识它能哄小孩、会讲故事、能教多种语言等功能。尽管文中没有提到一般保姆的特点,但是它在描述计算机保姆的特点、性能无疑是以人为参照的。这也正是其巧妙之处。这篇科技新闻由于使用人格化的手法而跳出专业技术性的圈子,写得生动而有实感,很有人情味。
尽管人格化的写作手法能变抽象为具体,能使新闻更具现场感、更有人情味,但是,如用得不巧妙,会适得其反。因为:
人格化的写作手法有一定的适用范围,不是对所有的新闻题材都适用。一般来讲,在涉及抽象的、不易理解的东西时运用较多,例如综合性经济新闻、科技新闻等。涉及具体的极易理解的东西时如重大新闻事件的报道中不适用。
人格化毕竟是一种技巧。就像形式要为内容服务一样,新闻写作技巧是为新闻主旨服务的。如果使用这种手法,即所描写的人的行为和意识对揭示新闻的主旨无直接关系,那么大可不必多此一举。
人格化这种写作手法自身也有局限。采用人格化的手法时,在导语中往往不具备新闻的五大要素,新闻事实也是在新闻主体中逐渐展开,这样容易拉长文章的篇幅,放慢文章节奏。
尤其值得一提的是,人格化的写作手法其核心是注重写人,写有典型意义的人,因而记者平日要注意观察与某一新闻事件相关或直接受其影响的人;观察他们的喜怒哀乐、举手投足。善于分析人与新闻事件的因果关系。这样才能防止偏颇。
(历史资料)
人工智能如何做到可信、可用?专家热议:把责任归结到个人******
中新网北京12月11日电 人工智能治理的理想状态,是人工智能技术能做到可知、可信、可控、可用。而在现实中,人工智能技术手段虽然非常强大,但是离完美、完善仍有相当的距离。从技术角度和技术应用角度,人工智能的发展如何做到扬长避短?
近日,在2022人工智能合作与治理国际论坛上,专家围绕该话题进行了讨论。
中国工程院院士、鹏城实验室主任高文认为,现阶段很多技术还处于发展的过程中,如果过早地说这个不能用、那个不能用,可能会抑制技术本身的发展。但反过来,如果什么都不管,也不行。
“因此,现在更多还是从道德层面多进行引导。同时,做技术的人,也要尽量把一些可能的风险、抑制工具,即约束风险的工具,尽快想明白。自己也做,同时号召大家做,两者结合。”他说。
清华大学智能产业研究院国强教授、首席研究员聂再清认为,我们要保证能够创新,但同时不能让创新对我们的生活产生破坏性的影响,最好的办法就是把责任归结到个人。
“技术的背后是有人在控制的。这个人应该时刻保证工具或创新在危险可控的范围内。同时,社会也要进行集体的监督,发布某个产品或技术,要能够召回、撤销。在创新和监管之间,当然是需要平衡的,但归根结底,还是要把责任落实到个人身上。”他指出。
瑞莱智慧RealAI公司联合创始人、首席执行官田天补充道,在技术可解释性方面,需要去进行技术发展与相应应用场景的深度结合。大家需要一个更加可解释的AI模型,或者更加可解释的AI应用。
“但我们真正想落地的时候,会发现每个人想要的可解释性完全不一样。比如:模型层面的可解释,可能从研发人员角度觉得已经很好了,但是从用户的角度是看不懂的,这需要一些案例级的解释,甚至通过替代模型等方式进行解释。因此,在不同领域,需要不同的可解释能力,以及不同的可解释级别,这样才能让技术在应用场景发挥最好的作用。”他说。
将伦理准则嵌入到人工智能产品与系统研发设计中,现在是不是时候?
高文认为,人工智能软件、系统应该有召回的功能。如果社会或伦理委员会发现这样做不对,可能带来危害,要么召回,要么撤销。
高文说,应用的开发者,系统提交或者最终用户让他去调整的时候,他应该有责任。如果开发者发现已经踩线了,应该给他一个保护机制,他可以拒绝后面的支持和维护,甚至可以起诉。“不能只说哪一方不行,光说是开发者的责任,他可能觉得冤枉,因为他只提供工具,但有时候是有责任的,只是说责任怎么界定。”
“在人工智能的发展过程中,一方面要建立一些红线。”田天建议,比如,对于人工智能的直接滥用,造假、个人隐私泄露,甚至关联到国家安全、生命安全的,这些领域一定要建立相关红线,相应的惩罚规定一定要非常清晰,这是保证人工智能不触犯人类利益的基本保障。
“在这个基础上,对于处于模糊地带的,希望能留有更多空间。不光是从限制角度,也可以从鼓励更加重视伦理的角度,促进合规地发展。”田天称。
2022人工智能合作与治理国际论坛由清华大学主办,清华大学人工智能国际治理研究院(I-AIIG)承办,中国新闻网作为战略合作伙伴,联合国开发计划署(UNDP)、联合国教科文组织(UNESCO)等国际组织、国内外学术机构支持。(中新财经)
中国网客户端 国家重点新闻网站,9语种权威发布 |