莫献忠对欲穿行大桥的村民进行劝导。 吴骆霞 摄
中新网南宁1月12日电(胡宏)警察、“水手”“绘图师”都是他的职业,他用自己接地气的做法守护着千年古镇扬美附近的铁路运输安全,今年春运是他坚守的第13个年头。
莫献忠是南宁铁路公安局南宁公安处南宁南站派出所的一名线路民警,2010年他来到扬美警务区,这里毗邻扬美古镇,每当高铁驶过古镇,现代与传统便在这里相遇。
莫献忠走在扬美古镇街上。 胡宏 摄
莫献忠管辖铁路线路43公里,横跨几十个自然村,点多线长并且学校众多,最近的一所学校距离铁路只有40米。特别是27公里长的老南昆线,多为低路基,沿线村民为了方便日常生活劳作,经常会横跨线路。
走村串户开展安全宣传自然成为莫献忠工作中的重要内容。作为“外来户”,不懂方言成了莫献忠开展工作的第一个“拦路虎”,于是他就把护路队员当“老师”,一字一句地向护路队员学,从说话开始慢慢融入当地群众当中。
“开展群众工作,不能光讲法律,要多站在他们的角度去帮助他们解决实际问题。”莫献忠说。
莫献忠到村民农场开展安全宣传。 胡宏 摄
2018年,村民反映村口主要铁路交通涵一下大雨就积水,行人车辆都无法通过。莫献忠立即将情况上报并争取相关部门的支持,在涵洞中修建了一条“高基”步道,即便遇到下雨积水也能使村民安全通过。
渐渐地,穿着一身警服,操着一口“土话”的莫警官变成了村民口中的“老莫”,几年下来,哪家有几口人、有多少小孩、多少大牲畜、家里田在哪,莫献忠都掌握得清清楚楚。
横跨在左江上的三座铁路桥是莫献忠管辖的重点区段,特别是左江大桥,每逢圩日,村民经常会借道大桥,莫献忠也都会早早来到桥头对穿行铁路桥的村民进行劝导。
同时,左江作为通航水路,不仅有两岸村民通过船只摆渡,更有大小货船经过,甚至还发生过因操作不当造成船只撞击铁路桥的事故。
桥上的情况可以实地踏勘,但是如何掌握桥面下和桥墩的情况曾一度让莫献忠犯难。
莫献忠在岸边给渡船固定缆绳。 胡宏 摄
在这里工作久了,莫献忠也变得“多才多艺”,不仅做得了“水手”,还当得了“绘图师”。
一次,莫献忠前往扬美村开展日常工作,和村民聊到了对大桥安全的担忧。村民杜师傅直接跟他说:“这有啥难,我经常要开船到对岸干活,到时候捎上你逛一圈,都是兄弟,也算是我为铁路安全做贡献了。”
自此,杜师傅每次开船渡江前都会给莫献忠打电话邀请他乘船巡线,莫献忠也就多了一层“水手”身份。
每天徒步巡线10公里是这些年来莫献忠始终坚持的必修课,他将徒步巡线收集到的资料分别绘制了普铁和高铁线路管辖图。
莫献忠在守护的线路图上添加信息。 胡宏 摄
“对我们线路民警来说,它必不可少。”莫献忠用笔点了点挂在扬美警务区墙上的手绘地图。
“三角形的是重要道口,圆形是交通涵,沿线所有的重点路段我都标注了出来”,指着“地图”上的各种标记,莫献忠如数家珍。
微微泛黄的地图上,一道道折痕似乎在诉说着它已经跟随自己的主人走过很多地方。
如今的莫献忠早已将线路图刻在了心里,他说:“巡线是个基础工作,底数清才能情况明,只有亲眼看到才能真正了然于胸,一步一个脚印才能走出安心。”
今年的春运,莫献忠更忙了,外出打工的青壮年纷纷提前返乡,前来古镇游玩的游客也日益增多,他将用更接地气的做法一直守护着铁路“大动脉”安全。(完)
报告显示:超六成受访者认为应强制企业公开算法******
光明网讯(记者 李政葳)“当前,国内对于算法治理的基本思路和框架都是清晰的,而分级分类精准治理的模式应当可以解决如何落实的问题。”在日前举办的“2022啄木鸟数据治理论坛”上,谈及算法治理的现状,清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任梁正表示,算法分级分类本身不是目标,而是要针对不同风险场景配备不同监管规则。
论坛由南都个人信息保护研究中心联合清华大学人工智能国际治理研究院、人工智能治理研究中心(清华大学)主办。其间,南都个人信息保护研究中心发布《算法应用与治理观察报告》《个人信息安全年度报告》《平台经济反垄断观察报告》。
记者了解到,《算法应用与治理观察报告(2022)》,梳理了国内外的多项法规,结合热点事件及应用场景呈现了算法治理现状,并发布千份算法治理调查问卷了解公众对算法公开和算法治理的了解程度和基本态度,最后基于多方调查分析,给出了当前算法趋势观察以及未来治理方向建议。
报告发现,目前国内算法治理仍处于早期探索阶段,企业的算法公开主要依靠官方的互联网信息服务算法备案系统,或在舆情事件发生之后。调查问卷结果显示,近半受访者承认算法让自己的使用体验更好,但仅一成受访者认为企业算法公开做得很好,逾六成的受访者称曾遭遇“大数据杀熟”;超过六成的受访者认为应该强制企业公开算法。
“在数据、算法方面治理政策进展显著,在平台与应用方面的政策和落地尚需加紧。”中国科学院人工智能伦理与治理研究中心主任、国家新一代人工智能治理专委会委员曾毅认为,目前人工智能伦理有三个相当紧迫的问题需要被正视:首先,人工智能应当被适度使用;其次,目前人工智能服务知情同意落地艰难,被迫知情同意普遍存在;最后,目前用户数据的授权撤销在人工智能服务中存在巨大挑战,需要监管和更高层的网络服务提供方联合提出更合理的政策与解决方案。
针对日前发布的《互联网信息服务深度合成管理规定》,中国政法大学数据法治研究院教授张凌寒表示,从算法治理角度来说,深度合成管理规定与之前的算法推荐管理规定的思路有所不同,前者采用了一种“三位一体由的数据与技术规范。
具体来讲,由于深度合成技术的门槛较高,技术支持者也被纳入了监管范围内。比如,深度合成服务提供者提供智能对话、合成人声、人脸生成、沉浸式拟真场景等服务,应当进行显著标识,这就将更重的责任落在了服务提供者身上。
中国社科院科技和社会研究中心主任段伟文提到,算法治理需要构建可信任的算法认知,而这需要产业和消费者的共同努力:产业要努力提升算法精准性、透明度,减少偏见,减少歧视;消费者则需要提高数字素养,提升算法意识,加强在人机互动中自主性、控制感和协同意识。
(文图:赵筱尘 巫邓炎)