text-classification

    0热度

    1回答

    我已经建立了一个增量学习模型,但不知道它是对还是错我有2个训练数据第一个包含20000行,第二个包含10000个行,它们都有两列描述和ID ......在我的学习模式是工作的罚款是针对给定描述分类正确ID离线的情况下.. datafile_train首先是训练数据 datafile_train1的第二次训练数据 我使用SGDClassifier和partial_fit方法增量 1 )Countve

    1热度

    1回答

    我有一个静态的std::vector<string>类。我想从中派生出来,并在派生类中扩展向量。 事情是这样的: class A { static std::vector<std::string> column_names; }; std::vector<std::string> A::column_names = {"col1", "col2"}; class B : publ

    1热度

    1回答

    我们正在尝试使用TensorFlow示例中的文本分类示例(tensorflow/examples/learn/text_classification.py)。它适用于db_pedia数据。 现在我们试图使用Saver保存/恢复模型,但我们没有获取使用Saver API的位置,因为text_classification.py中的代码根本不使用Session,并且Saver API需要会话来保存/恢复

    0热度

    1回答

    我对基于追随者鸣叫Twitter帐户的追随者的分类(正极/负极)工作, 收集数据 得到了所有的追随者,并从该他们的鸣叫每个鸣叫的各自帐户 情绪分析和标记为(正/负/中性) 其中哪一种是正确的?如果没有...有没有更好的方法? 我的用户分类方法1: 以来的中立性得分为0,删除所有中性标记的鸣叫 采取的积极和消极的鸣叫计数 有在所有推文中只有17%为负面推文(pos + neg) 我不停的阈值作为34

    5热度

    1回答

    我正在使用Scikit-learn进行文本分类。我想计算每个属性相对于(稀疏)文档项矩阵中的类的信息增益。 信息增益定义为H(Class) - H(Class | Attribute),其中H是熵。 使用weka,这可以通过InfoGainAttribute来完成。但我还没有在scikit-learn中找到这个方法。 但是,信息增益上面的公式与互信息是相同的度量,它已经是suggested。这也匹

    1热度

    1回答

    我正在尝试通过创建一个字符文本的热编码来准备数据文件,我可以稍后使用这些编码来训练我的模型进行分类。我有一个由字符行组成的训练数据文件,我最初正在做它们的整数编码,然后是一个热门编码。 例如这是数据文件的外观: afafalkjfalkfalfjalfjalfjafajfaflajflajflajfajflajflajfjaljfafj fgtfafadargggagagagagagavcacac

    0热度

    1回答

    我想要使用tensor2tensor来进行二进制文本分类只有注意力和没有LSTM或CNN预处理图层。我认为transformer_encoder模型对我来说是最好的,但是我找不到任何预先设定好的Problem或Hparams。任何人都可以给我一个使用tensor2tensor或其他建议的文本分类示例吗?

    1热度

    1回答

    我使用从我的软件包中调用的sectionservice创建了自己的应用程序/部分。我现在试图在本节中添加一个html/angular仪表板视图,但是我找到的所有教程都是关于编辑dashboard.config并在此处添加指向视图的指针。 由于我的目标是创建一个独立的软件包,我不想直接编辑此文件,但实用的添加了一个仪表板到我的部分。 这可能吗?任何人都可以将我链接到教程或提示我应该使用哪些服务。 我

    2热度

    3回答

    简短的问题:我有一个visual studio 2015数据库项目。在我的解决方案。我正在使用数据库第一种方法来处理我的数据层。我如何打开实际的数据库进行管理。我似乎无法找到任何类型的SQL Server数据库管理工具。 长问题:我正在创建一个Visual Studio 15 Web应用程序。我正在使用Visual Studio数据库项目来创建和管理数据库模式。我能够在数据库比较和更新期间创建数据

    1热度

    1回答

    我想在一个TSV文件中读取与下面的代码数据帧对象火花CSV检查: SQLContext sqlContext = new SQLContext(javaSparkContext); Map<String, String> sqlContextOptions = new HashMap<>(); sqlContextOptions.put("header", "true"); sqlConte