UACTF 2022 Writeup
简介: 本文为UACTF 2022比赛的WriteUp。本次还是与NING0121、meishijia一起组队参赛,最终在447支参赛队伍中排名21位。打怪升级中,再接再厉~
Read moreDeloitte Hacky Holiday 2022 WriteUp
简介: 本文是Deloitte Hacky Holiday比赛的WriteUp,主办方的题目非常有质量而且梯度拉开非常友好。我们最终在2334支参赛队伍中取得了75名的成绩,再接再厉!
Read moreWeb安全入门靶场Natas通关详解(下)
简介: 本文是对OverTheWire: Natas服务器端Web安全入门靶场通关的记录中的下半篇,主要包括第18-34关。
Read moreWeb安全入门靶场Natas通关详解(上)
简介: 本文是对OverTheWire: Natas服务器端Web安全入门靶场通关的记录中的上半篇,主要包括第1-17关。
Read more系列解读共指消解(三): 近期创新的改进和探索
除了第一、二阶段中所提出的经典结构之外,有许多其他的工作对于共指消解问题中面临的解决框架、长文档、计算效率和内存空间等关键问题进行了探索。
Read more系列解读共指消解(一): 基于神经网络的表征学习引入
简介: 本文是作者对近年来基于深度学习的实体指代消解工作的梳理与总结,共包含4个阶段以及若干篇本领域优秀的论文。第一阶段为2015年之后,由Wiseman等人开启的基于神经网络的共指消解特征表征学习的解决方案。其中包括对现工作影响非常大的由Lee等人发表的端到端共指消解模型、高阶推理以及由粗到细的筛选。
Read more系列解读共指消解(二): BERT系列模型入场
随着2018年大规模预训练模型BERT席卷各项NLP任务成为最佳模型,2019年Joshi et al. 使用BERT代替原有词嵌入以及基于BiLSTM的上下文提取方法生成文本跨度的表征向量,并在基线数据集上的表现有了大幅度的提高。由于文本跨度表示在共指消解任务中的重要地位,Joshi于同年发布更适用于共指消解等跨度边界敏感任务的SpanBERT,该模型相比于原BERT模型达到了更好的效果。此外,来自清华大学的团队于2020年发布的以共指消解作为BERT模型训练任务的corefBERT也有着优异的表现。
Read more共指消解任务评价指标详解
本文对共指消解任务的常见评价指标MUC、B-Cubed、CEAF和LEA的算法思想、具体计算方法和示例进行阐述。
Read more基于神经网络的实体共指消解相关论文解读
简介: 本文介绍了基于神经网络的实体共指消解的4篇基石文章,均为UW实验室的产出。四篇文章一脉相承,不断改进,对基于神经网络的共指消解解决方案有着指导意义。
Read more基于字符相似度的序列对齐算法
简介: 本篇文章将介绍基于相似度的Needleman-Wunsch序列对齐算法。该算法可用于在文字纠错、变体字识别中原文本与标注文本的对齐。
Read more