自1993年携手合作,如今到了第30个年头,“庞清佟健”从赛场转至幕后。二人经历了角色的转变,但“花滑”仍是他们生命中不可或缺的一部分。
角色
2015年花滑世锦赛,庞清佟健以一首《为你守候》作为告别,从此结束职业生涯。一些优秀运动员退役后,面临着身份转换问题。佟健说,自己和庞清在这方面并没遇到太多困难。
“我跟庞清一边做职业比赛,另一边做花滑市场化推广,没有在离开赛场后就闲下来。”他介绍。
图片2015年花滑世锦赛双人滑比赛中,庞清/佟健摘得铜牌。中新社发 申海 摄退役后不久,庞清佟健冰上艺术中心成立,佟健主要负责运营工作。如今为人父母的二人都已过不惑之年,但穿着便服站在一起,他们的气质依旧出众,让人联想起这对组合曾经在冰场上的样子。
“我们特别希望能帮助更多运动员,比如国家队运动员,在心理、技术、方法上,能否给他更多帮助?在俱乐部学习技术的小学员,能不能去帮他?”在佟健眼中,二人现在看到比赛还是会想起以前的日子,但更关注自己能为别人做什么。
1月初,庞清佟健国际滑冰俱乐部的孩子们在“冰丝带”的一场活动中进行了现场表演。佟健站在场边,不时为小学员们鼓掌。庞清在他身后不远处,静静地看着冰场上的表演,如今她已在国家体育总局冬运中心任职。
佟健。受访者供图曾经场边的庞清佟健是在为比赛做着紧张的准备,而现在,二人要见证孩子们成长为和他们一样优秀的运动员。
花滑
搭档30年,“庞清佟健”这四个字紧密连在了一起。曾经,“庞清佟健”在赛场之上为国争光。如今,佟健希望“庞清佟健”能鼓励更多人。
“我们希望给更多的追梦者力量,庞清佟健就是追梦人的代表。希望通过我们奋斗的经历,给更多年轻人以力量。在他们遇到困难时永不放弃,努力去实现梦想。”他说道。
在庞清佟健的职业生涯中,《追梦无悔》是最为人熟知的自由滑曲目之一。2010年温哥华冬奥会上,伴随着这首气势宏大的音乐,庞清佟健摘得银牌。
图片庞清佟健。中新社发 沈晨 摄退役后,他们的“梦”以另一种方式延续了下去。在冰上艺术中心之外,现如今庞清佟健旗下品牌冰场还包括冰雪学校以及国家速滑馆培训点。
在冰场上,佟健身边滑过的不再是各国花滑高手,而是身高参差不齐的孩子们。看着这些来俱乐部学滑冰的孩子们,佟健直言,现在的孩子们在场地和装备方面比自己小时候更加“幸福”。
“从本质需求来讲,不再是以竞技、输赢为核心,而是围绕着孩子们的心理健康、身体健康开展起来,我觉得这是比较大的差别。”
未来
“我们能不能有更多时间花在自己孩子身上?”这是佟健目前的困扰之一。“我们从原来相互关注技术和成绩,到后来关注整个产业发展,自己有了两个孩子后,在关注他们这方面做得还不够。”
佟健。受访者供图。提起家里的小朋友,佟健的笑容更加明显。他希望能更好分配自己的时间,把他和庞清对体育的理解和人生感悟传递给孩子,陪伴他们一起成长。
除了家庭的未来,佟健也在关注中国双人滑的未来。北京冬奥会上,隋文静/韩聪摘得双人滑金牌,但接下来的冬奥周期,中国队面对的压力并不小。
“我觉得从项目发展来讲,肯定有起有伏。我们面对的挑战就是在后冬奥如何能建立起一些后备力量。短暂的调整,对于每一个项目来讲都是不可避免的,我们只是坦然地去把自己应该做的工作做好。我想中国冰雪未来一定会非常强。”显然,佟健对于项目的发展抱有信心。
在竞技项目外,佟健也深刻感受到了在北京冬奥会结束后的一年中,社会对于体育的理解发生了变化。
国家速滑馆开展主题活动。 中新社记者 韩海丹 摄“体育从原来的输赢变成了一种新的生活方式。能够让孩子们身体健康,同时对规则有更好的理解。我觉得通过2008年北京夏奥会、2022年北京冬奥会,整个社会对体育的理解发生着变化。”(完)
人工智能如何做到可信、可用?专家热议:把责任归结到个人****** 中新网北京12月11日电 人工智能治理的理想状态,是人工智能技术能做到可知、可信、可控、可用。而在现实中,人工智能技术手段虽然非常强大,但是离完美、完善仍有相当的距离。从技术角度和技术应用角度,人工智能的发展如何做到扬长避短? 近日,在2022人工智能合作与治理国际论坛上,专家围绕该话题进行了讨论。 中国工程院院士、鹏城实验室主任高文认为,现阶段很多技术还处于发展的过程中,如果过早地说这个不能用、那个不能用,可能会抑制技术本身的发展。但反过来,如果什么都不管,也不行。 “因此,现在更多还是从道德层面多进行引导。同时,做技术的人,也要尽量把一些可能的风险、抑制工具,即约束风险的工具,尽快想明白。自己也做,同时号召大家做,两者结合。”他说。 清华大学智能产业研究院国强教授、首席研究员聂再清认为,我们要保证能够创新,但同时不能让创新对我们的生活产生破坏性的影响,最好的办法就是把责任归结到个人。 “技术的背后是有人在控制的。这个人应该时刻保证工具或创新在危险可控的范围内。同时,社会也要进行集体的监督,发布某个产品或技术,要能够召回、撤销。在创新和监管之间,当然是需要平衡的,但归根结底,还是要把责任落实到个人身上。”他指出。 瑞莱智慧RealAI公司联合创始人、首席执行官田天补充道,在技术可解释性方面,需要去进行技术发展与相应应用场景的深度结合。大家需要一个更加可解释的AI模型,或者更加可解释的AI应用。 “但我们真正想落地的时候,会发现每个人想要的可解释性完全不一样。比如:模型层面的可解释,可能从研发人员角度觉得已经很好了,但是从用户的角度是看不懂的,这需要一些案例级的解释,甚至通过替代模型等方式进行解释。因此,在不同领域,需要不同的可解释能力,以及不同的可解释级别,这样才能让技术在应用场景发挥最好的作用。”他说。 将伦理准则嵌入到人工智能产品与系统研发设计中,现在是不是时候? 高文认为,人工智能软件、系统应该有召回的功能。如果社会或伦理委员会发现这样做不对,可能带来危害,要么召回,要么撤销。 高文说,应用的开发者,系统提交或者最终用户让他去调整的时候,他应该有责任。如果开发者发现已经踩线了,应该给他一个保护机制,他可以拒绝后面的支持和维护,甚至可以起诉。“不能只说哪一方不行,光说是开发者的责任,他可能觉得冤枉,因为他只提供工具,但有时候是有责任的,只是说责任怎么界定。” “在人工智能的发展过程中,一方面要建立一些红线。”田天建议,比如,对于人工智能的直接滥用,造假、个人隐私泄露,甚至关联到国家安全、生命安全的,这些领域一定要建立相关红线,相应的惩罚规定一定要非常清晰,这是保证人工智能不触犯人类利益的基本保障。 “在这个基础上,对于处于模糊地带的,希望能留有更多空间。不光是从限制角度,也可以从鼓励更加重视伦理的角度,促进合规地发展。”田天称。 2022人工智能合作与治理国际论坛由清华大学主办,清华大学人工智能国际治理研究院(I-AIIG)承办,中国新闻网作为战略合作伙伴,联合国开发计划署(UNDP)、联合国教科文组织(UNESCO)等国际组织、国内外学术机构支持。(中新财经)
|