jackfromeast's blog

自然语言处理

系列解读共指消解(二): BERT系列模型入场

随着2018年大规模预训练模型BERT席卷各项NLP任务成为最佳模型,2019年Joshi et al. 使用BERT代替原有词嵌入以及基于BiLSTM的上下文提取方法生成文本跨度的表征向量,并在基线数据集上的表现有了大幅度的提高。由于文本跨度表示在共指消解任务中的重要地位,Joshi于同年发布更适用于共指消解等跨度边界敏感任务的SpanBERT,该模型相比于原BERT模型达到了更好的效果。此外,来自清华大学的团队于2020年发布的以共指消解作为BERT模型训练任务的corefBERT也有着优异的表现。

Read more
渗透测试

渗透测试核心思路-边界突破

说来惭愧,作为一个网安的学生,我是最近才比较正式地接触内网环境下的渗透测试。所以自己作为一个新手,先总结一些最近实践过程中的基本思路和使用的工具方法,之后再慢慢持续更新,争取写一点有价值的内容。

Read more
12345