Tag: 文献阅读


  1. GraphST


  2. xTrimoGene


  3. scGNN is a novel graph neural network framework for single-cell RNA-Seq analyses

    主要分为三个部分

    • LTMG预处理单细胞表达矩阵“转换”信号;
    • 一个以细胞聚类任务收敛为目的的迭代过程,包括三个部分。1.Feature autoencoder,两个输入:来自第一步的正则化矩阵;初始化迭代来自预处理过的表达矩阵,之后输入就来自迭代最后一部分重构的表达矩阵。2.使用上一步自编码器得到的细胞的embedding构建cell graph然后作为Graph autoencoder的输入,然后使用graph embedding做细胞聚类。3.Cluster autoencoder,重构基因表达值,每个细胞类型中的细胞都有一个单独的cluster自编码器。
    • Imputation autoencoder

  4. Unsupervised Spatially Embedded Deep Representation of Spatial Transcriptomics

    目的

    优化转录数据和空间信息的整合,和stlearn类似,stLearn用的形态学信息,stLearn虽然用了卷积提取了图片的语义信息,但是是用的一个通用的预训练模型然后在形态学图片上做的fine-tune
    空间转录组的数据可以分为三部分:基因表达、空间信息、形态学信息


  5. Revised JNLPBA Corpus

    本文的动机是JNLPBA语料中有许多错误、漏标,导致下游的关系抽取不好做,所以本文总结了JNLPBA数据集中的错误(这些点也都出现在其他生物医学语料中),并重新纠正标注了这些错误,总结了重新标注的规范。

    原文

    Revised JNLPBA Corpus: A Revised Version of Biomedical NER Corpus for Relation Extraction Task


  6. Automatic cell type identification methods for single-cell RNA sequencing

    任务描述

    Xie B et al(2021)描述了一个unlabel rate以及肿瘤相关的specificity和sensitivity,具体来说是评估一个模型能不能预测unlabel cell type以及,当用正常组织细胞训练,对预测肿瘤细胞做预测,将unlabel的预测结果看作是恶性细胞。


  7. BioNLP数据集整理

    20210830-151458.png
    图片来自于“Domain-Specific Language Model Pretraining for Biomedical Natural Language Processing”


  8. A Unified MRC Framework for Named Entity Recognition

    把ner的序列标注问题做成是一个阅读理解的问题(MRC)。把训练数据变成(上下文,问题,答案),训练的时候BERT的输入是把问题和上下文连起来用[SEP]分开,前后各加一个[CLS]。这就是为了和BERT保持一致。然后BERT的输出把第一句问题的表示向量给删了,只要后面上下文的表示向量。然后后面接了一个match model


  9. Joint Biomedical Entity and Relation Extraction with Knowledge-Enhanced Collective Inference

    提出一个新的利用外部知识的联合抽取框架KECI (Knowledge-Enhanced Collective Inference)

    要点

    分三步:

    1. 将input text结构化为初始化图(initial span graph),作为对输入文本的初步理解。在一个span graph里每个node表示一个entity,每条edge表示两个entity的relation
    2. 然后在一个额外的知识库里使用entities linker形成一个包含所有潜在有关联的生物医学实体的背景知识图(background knowledge graph),对于每个entity从上面提到的知识库(KB)里提取它的semantic types,definition sentence以及relational information
    3. 最后KECI使用注意力机制融合上述两个graph成一个更refined的graph

  10. A Unified Generative Framework for Various NER Subtasks

    核心思想:不做序列标注了,把ner任务转换成文本生成任务,用一个seq2seq模型去生成一个entity span sequence,这样就不需要设计复制的tagging模式了

    seq2seq模型是用的BART

    原文

    A Unified Generative Framework for Various NER Subtasks