投身移动安全创业,选择站在同一起跑线上的新赛道
2005年前后,85后青年潘宣辰还在武汉大学信息安全专业就读,这是国内第一个信息安全本科专业。在一次演讲授课上,潘宣辰结识了当时在武汉大学做兼职教授的网安前辈安天创始人肖新光(Seak)。
当时,我国在PC安全时代的核心技术还处于一个追赶的姿态。Seak给学生时代的潘宣辰渲染了一副宏大的国家安全及民族软件创新产业格局,并提出希望能找到一个新的技术领域或在一个新的操作系统平台上,可以由国内相关的研发团队自主去实现基础核心技术的突破和创新。
这个目标打动了潘宣辰。毕业后,在安天的支持下,他选择了移动安全方向创业发展。潘宣辰认为,PC时代几乎所有的技术,包括产品和商业模式在引入到移动场景后,都得到了进一步的叠加演进。结合移动特有的产业及生态结构,在移动安全方向上,必然会形成不一样的产业及生态安全需求,也同样会产生新的技术定义以及商业模式。
“得益于移动互联网的蓬勃发展,我们在这个全新的领域,和国内其他优秀厂商以及海外厂商相比,站在一个起跑线上,而且相比之下,安天以往在PC端积累的技术视野,在全新的领域进行技术架构和商业模式创新时,没有太多的历史包袱,又具有科班出身的发展优势。”潘宣辰说。
自主研发反病毒引擎,打破欧美安全厂商十余年独大
2010年以前,PC时代国内比较领先的安全厂商在海外的排行榜上并不是很靠前,最高排名第8位,多数徘徊在第10名左右。有了这个先例,潘宣辰和团队最开始设定目标是移动安全领域能够进入到世界前8位。
当时,团队初期的技术实力在移动领域优势并不明显。潘宣辰坦言,像海外的卡巴斯基、比特梵德,以及国内的瑞星、金山、360、腾讯等,其实都已经关注到,移动安全必然是未来一大趋势,当时大家都在积极投入技术研发。
深蹲之后,才能更好的起跳。最初,由于技术理念上有较大的差异,团队的优势并不明显。在和国内外厂商交流之后,才发现这是技术理念上的差异造成的。
比如,友商更多的是直接把PC时代的经验快速复制到移动时代,而安天是以本地检测算法引擎以及基于机器学习的专家智能分析工程平台运营体系为主,所以“工程化”传统较重,成果的形成需要较长时间的积累。
2013年前后,安天的优势开始凸显。当时,国际知名安全软件评测机构AV-Test的移动安全首次测评中,安天AVL移动反病毒引擎的检出率指标平均领先行业水平10%以上。这是国内安全厂商第一次在世界范围的反病毒领域呈现出技术压倒性优势,也就在那年,安天移动安全打破了欧美厂商的垄断,以100%的检出率成为首个获得AV-Test“移动年度最佳奖项”的亚洲厂商。
技术的真正价值,需要用市场和产业的方式来“回答”
在2014年取得核心技术突破的时候,他们也有卖掉团队的机会。潘宣辰和团队在“财务诱惑”和“产业挑战”之间,选择了后者。
潘宣辰认为,技术本身并没有常胜将军,也并不见得会永远占据优势。“这项技术到底是不是真的有价值,最终还需要用市场和产业的方式来回答。如果不去真正进入市场、进入产业的话,我自己觉得会特别后悔。因为这样就等于止步于技术了。”潘宣辰说。
安天移动安全在2015年开始探索商业化路径,选择了关口前移的产业融入线路。即通过选择与手机厂商广泛合作,通过操作系统级的嵌入式来进行技术落地,并且在这个基础上去构建新的商业模式。从2015年至今,安天威胁检测引擎为全球超过三十亿部智能终端设备提供了操作系统内置的安全检测能力。
“在移动安全的核心技术领域上,我们目前仍然保持着世界前列的水准。在检测这个技术点上,我们应该一直是第一第二的位置。”潘宣辰说。
监制:张宁
采访:李政葳
拍摄/后期:刘昊 李飞
配音:雷渺鑫
报告显示:超六成受访者认为应强制企业公开算法******
光明网讯(记者 李政葳)“当前,国内对于算法治理的基本思路和框架都是清晰的,而分级分类精准治理的模式应当可以解决如何落实的问题。”在日前举办的“2022啄木鸟数据治理论坛”上,谈及算法治理的现状,清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任梁正表示,算法分级分类本身不是目标,而是要针对不同风险场景配备不同监管规则。
论坛由南都个人信息保护研究中心联合清华大学人工智能国际治理研究院、人工智能治理研究中心(清华大学)主办。其间,南都个人信息保护研究中心发布《算法应用与治理观察报告》《个人信息安全年度报告》《平台经济反垄断观察报告》。
记者了解到,《算法应用与治理观察报告(2022)》,梳理了国内外的多项法规,结合热点事件及应用场景呈现了算法治理现状,并发布千份算法治理调查问卷了解公众对算法公开和算法治理的了解程度和基本态度,最后基于多方调查分析,给出了当前算法趋势观察以及未来治理方向建议。
报告发现,目前国内算法治理仍处于早期探索阶段,企业的算法公开主要依靠官方的互联网信息服务算法备案系统,或在舆情事件发生之后。调查问卷结果显示,近半受访者承认算法让自己的使用体验更好,但仅一成受访者认为企业算法公开做得很好,逾六成的受访者称曾遭遇“大数据杀熟”;超过六成的受访者认为应该强制企业公开算法。
“在数据、算法方面治理政策进展显著,在平台与应用方面的政策和落地尚需加紧。”中国科学院人工智能伦理与治理研究中心主任、国家新一代人工智能治理专委会委员曾毅认为,目前人工智能伦理有三个相当紧迫的问题需要被正视:首先,人工智能应当被适度使用;其次,目前人工智能服务知情同意落地艰难,被迫知情同意普遍存在;最后,目前用户数据的授权撤销在人工智能服务中存在巨大挑战,需要监管和更高层的网络服务提供方联合提出更合理的政策与解决方案。
针对日前发布的《互联网信息服务深度合成管理规定》,中国政法大学数据法治研究院教授张凌寒表示,从算法治理角度来说,深度合成管理规定与之前的算法推荐管理规定的思路有所不同,前者采用了一种“三位一体由的数据与技术规范。
具体来讲,由于深度合成技术的门槛较高,技术支持者也被纳入了监管范围内。比如,深度合成服务提供者提供智能对话、合成人声、人脸生成、沉浸式拟真场景等服务,应当进行显著标识,这就将更重的责任落在了服务提供者身上。
中国社科院科技和社会研究中心主任段伟文提到,算法治理需要构建可信任的算法认知,而这需要产业和消费者的共同努力:产业要努力提升算法精准性、透明度,减少偏见,减少歧视;消费者则需要提高数字素养,提升算法意识,加强在人机互动中自主性、控制感和协同意识。
(文图:赵筱尘 巫邓炎)