学子风采丨565net必赢客户端李子涵:顶会并非遥不可及

发布人:林柱良

 

565net必赢客户端2021级研究生李子涵

 

image-20230303171808-2

 

在得知自己在人工智能领域顶级会议 AAAI 中稿的那个瞬间,我的心情与其说是喜悦,不如说是震惊,震惊于自己的第一篇论文居然就中了顶会。从投稿到中稿大约三个月的过渡期里,我不是在琢磨下一篇论文应该做点什么,就是在考虑被拒稿后应该怎么办。“下一步该转投哪个会?写法需要做什么改变?实验上还有什么可以补充?”然后突然收到中稿的好消息,这些纠结了我几个月的问题统统失去了意义,就像眼前迷雾散尽一般令人神清气爽。

 

当然,我的论文能够中顶会,肯定有其缘由。除开自身强运之外,我认为以下几点比较重要:

首先是读论文时不光要聚焦于主攻方向上的论文,还要同时兼具深度与广度,广泛涉猎其他领域的最新成果。眼界开阔后再回过头来审视原本的课题,往往会产生新的灵感。我中稿的这篇论文正是将“对比学习”的最新成果引入“跨域攻击”从而获得了成功。

其次是要坚持自己的想法,不要因为初期尝试的失败就怀疑想法的可行性。对于做实验来说,失败才是常态,成功反而是一个很短暂的过程。实验效果不好可能只是一些细节上没有到位,而不是想法本身有问题。

再者是给自己一个看得见摸得着的目标。俗话说“deadline(简称ddl)是第一生产力”。这个 ddl可以是某个会议的截稿日,也可以是某个假期的起始日。在外部强制力不足的情况下,给自己定一个ddl可以有效提高自己的主观能动性,工作得以有条不紊地推进。

最后是顶会并非遥不可及。我开始时曾犹豫过,将自己的第一篇文章直接投稿 CCF A 类的会议会不会步子迈得太大,最终白白浪费几个月时间。但最终经过思考后,我还是认为自己所做的科研工作和付出的努力值得尝试一下AAAI。所以如果对自己的成果有信心的话,那就大胆地投出去吧!

作为我的第一篇论文,能够一发中稿除了自身的努力外,还离不开苏玉鑫老师和吴炜滨老师的鼎力相助。在每周一次面对面集中交流的组会上,宽松平等的讨论氛围让我能够与导师们高效地交换意见,每次讨论都能使我明确当前的不足之处并确定下一阶段的推进目标。在论文写作中,因为是我撰写的人生中第一篇学术论文,所以我对论文的行文逻辑与结构等方面有诸多拿不准的地方。两位导师全程参与了我论文的写作与投稿过程,帮我指出文中出现的各种问题,并亲自修改敲定了终稿。

能够遇到两位乐于帮忙的导师,我感到非常幸运。可以说,没有两位导师的悉心指导,就没有我今天的成果。在过去一年时间里,导师们认真负责的工作态度和严谨耐心的科研精神,都给我留下了深刻的印象,也为我今后的研究工作树立了优秀的榜样。

虽然我的论文已被CCF A类的会议接受,但我明白这只是我求知之路上的一个起点。“对抗攻击”这个话题还有很多值得研究的地方,在论文投稿后的这几个月里我对“对抗攻击”的性质又有了新的认识,今后也会沿着这个方向深挖下去,做出更多有价值的成果。

 

论文标题:CDTA: A Cross-Domain Transfer-Based Attack with Contrastive Learning

摘要:尽管有着优异的性能,深度神经网络被证实很容易受到对抗样本的攻击,并且这些对抗样本常常能够在不同模型间迁移。也就是说,同一个对抗样本可以同时迷惑不同结构的模型。基于这一点,很多基于迁移的黑盒攻击被开发出来。然而当前迁移攻击的研究专注于跨模型场景。在这种场景下攻击者可以获取模型的训练数据,而在现实中这是难以做到的。本文设计了一种基于迁移的跨域攻击(CDTA),它可以工作于跨域场景。这种情况下攻击者对目标模型包括结构、训练数据、标签、置信度等信息均一无所知。具体来说,本文提出了对比性光谱训练方法,在原数据集上训练特征提取器,然后将其应用于目标数据集上的对抗样本生成。本文通过扰乱中间特征层和最后一层特征提取器的输出,破坏原始图像的语义信息。我们在四个风格迥异的数据集上用16个目标模型评估了 CDTA。结果表明,就攻击成功率而言,CDTA 可以持续地超越最先进的基线方法,在所有目标模型中平均超越了 11.45%。源代码和预训练模型开源于:https://github.com/LiulietLee/CDTA。