图为:歼-15舰载机在航母上降落
纵观国外航母和舰载机的发展历史,影响航母和舰载机的发展主要因素有这样几个:第一、军事需求;第二,对舰载机及其作战使用的认识,或者说赋予舰载机的使命任务;第三是国家的造船工业能力;第四,国家财力支持的力度。受这些因素的影响,各国航母呈现出大小之分和起降方式的差异。下面我们看美国、苏联、英国战后航母和舰载机的发展。
所谓军事需求,首先是国家军事战略需求,要不要发展航母,其次是未来准备打什么仗,潜在作战对手的装备情况等。我们再来看对舰载机及其使用的认识,以美国和苏联为例(俄罗斯几十年来没有发展航母和舰载机,所以这里主要讲的是苏联时期的发展情况),美国海军认为舰载机具备多种作战能力,可重复使用,使用成本相对较低;无论是反舰、空战,还是对陆攻击任务,舰载机都可以承担,经过两次世界大战的洗礼和战后的多场战争的考验,赋予舰载机的作战任务越来越多,因此,舰载机的能力也随之越来越强。
而苏联海军则认为,在海战中,反舰导弹比舰载机反应速度更快,使用导弹可以更快地摧毁敌方舰艇,所以在航母上装备了远程反舰导弹,这在航母史上也可称得上独树一帜。因此,苏联海军的舰载机主要用于攻势防空,舰上虽然也配备了苏-24战术轰炸机,但它大概也是在反舰导弹实施第一轮攻击后,补刀用的。在守势防空方面,苏联海军也比较注重导弹的作用,在舰上装备了4座6单元SA-N-9防空导弹垂直发射装置,备弹192枚。
因为专注发展核潜艇和导弹,对舰载机没有强烈的军事需求,所以苏联海军也没有在舰载机的研发方面投入很大的精力和财力。苏联早期曾投资研制过雅克垂直短距起降的舰载机,但最终没有结果。因为欠账太多,在苏-27战斗机退役后,只能改装当年在竞争中败给苏-27的米格-29战斗机,以解燃眉之急。
我们再看英国,英国原是航母大国,二战结束时,英国还曾保有15艘攻击型航母和36艘护航航母、1300多架舰载机。英国还是第一个喷气式飞机上舰的国家,截至50年代,先后发展了“毒液”“弯刀”等5型固定翼舰载战斗机和1型舰载反潜机。后来,因国防战略的调整,受“导弹制胜论”的影响,开始削减航母,不再发展舰载机。20世纪70年代,英国海军利用“鹞”式飞机,发展了滑跃起飞的轻型航母,同时也为中小国家发展航母开辟了新途径。意大利、西班牙、泰国等国的航母都采取了这种发展模式。
国家工业基础的重要性不言而喻,其实目前能够建造、维持大型航母的国家也没有几个。另一方面,虽然建造船体相对简单,但维持舰载机在舰上正常运转、执行作战任务并不容易,需要庞大、复杂的各种系统,以及设备的支持。有人用综合国力来形容航母的发展是非常恰当的。财力支持也是非常重要的因素,现在航母的建造费用越来越高,美国福特级航母的造价已高达140亿美元,一艘航母服役四五十年,这期间每隔几年还要进行维修、大修,全寿期费用高达数百亿美元,如果再加上两代舰载机的采购费、维修保养费等,总费用还要翻倍,所以一般国家根本没有力量研制舰载机和建造、维持航母。
作者简介:侯建军,原海军装备研究院某研究所总工程师、研究员,他长期致力于外国海军装备发展研究,著述30余部,获国家科技进步二等奖1项,、军队科技进步二等奖3项,被评为国防科技信息事业50周年优秀工作者。
出品:科普中国军事科技前沿
作者:侯建军
策划:金赫
监制:光明网科普事业部
报告显示:超六成受访者认为应强制企业公开算法******
光明网讯(记者 李政葳)“当前,国内对于算法治理的基本思路和框架都是清晰的,而分级分类精准治理的模式应当可以解决如何落实的问题。”在日前举办的“2022啄木鸟数据治理论坛”上,谈及算法治理的现状,清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任梁正表示,算法分级分类本身不是目标,而是要针对不同风险场景配备不同监管规则。
论坛由南都个人信息保护研究中心联合清华大学人工智能国际治理研究院、人工智能治理研究中心(清华大学)主办。其间,南都个人信息保护研究中心发布《算法应用与治理观察报告》《个人信息安全年度报告》《平台经济反垄断观察报告》。
记者了解到,《算法应用与治理观察报告(2022)》,梳理了国内外的多项法规,结合热点事件及应用场景呈现了算法治理现状,并发布千份算法治理调查问卷了解公众对算法公开和算法治理的了解程度和基本态度,最后基于多方调查分析,给出了当前算法趋势观察以及未来治理方向建议。
报告发现,目前国内算法治理仍处于早期探索阶段,企业的算法公开主要依靠官方的互联网信息服务算法备案系统,或在舆情事件发生之后。调查问卷结果显示,近半受访者承认算法让自己的使用体验更好,但仅一成受访者认为企业算法公开做得很好,逾六成的受访者称曾遭遇“大数据杀熟”;超过六成的受访者认为应该强制企业公开算法。
“在数据、算法方面治理政策进展显著,在平台与应用方面的政策和落地尚需加紧。”中国科学院人工智能伦理与治理研究中心主任、国家新一代人工智能治理专委会委员曾毅认为,目前人工智能伦理有三个相当紧迫的问题需要被正视:首先,人工智能应当被适度使用;其次,目前人工智能服务知情同意落地艰难,被迫知情同意普遍存在;最后,目前用户数据的授权撤销在人工智能服务中存在巨大挑战,需要监管和更高层的网络服务提供方联合提出更合理的政策与解决方案。
针对日前发布的《互联网信息服务深度合成管理规定》,中国政法大学数据法治研究院教授张凌寒表示,从算法治理角度来说,深度合成管理规定与之前的算法推荐管理规定的思路有所不同,前者采用了一种“三位一体由的数据与技术规范。
具体来讲,由于深度合成技术的门槛较高,技术支持者也被纳入了监管范围内。比如,深度合成服务提供者提供智能对话、合成人声、人脸生成、沉浸式拟真场景等服务,应当进行显著标识,这就将更重的责任落在了服务提供者身上。
中国社科院科技和社会研究中心主任段伟文提到,算法治理需要构建可信任的算法认知,而这需要产业和消费者的共同努力:产业要努力提升算法精准性、透明度,减少偏见,减少歧视;消费者则需要提高数字素养,提升算法意识,加强在人机互动中自主性、控制感和协同意识。
(文图:赵筱尘 巫邓炎)