scala

    0热度

    1回答

    我正在使用ConcurrentSkipListSet集合来处理并发运算符。我发现它有时会卡住,使用此代码reproduct: import java.util.Comparator import java.util.concurrent._ object SetDeadLock extends App { private val tasks = new ConcurrentSkip

    0热度

    1回答

    我有一个现有的JFreeChart插件类,不会转换为Scala v2.11,它看起来比它更复杂。 Java的是: package x; import org.apache.commons.lang.NotImplementedException; import org.jfree.data.time.RegularTimePeriod; import java.io.Serializable

    4热度

    1回答

    我正在尝试学习播放框架。我想在我的应用程序中实现播放框架的生命周期回调。现在我看到,它可以使用GlobalSettings下面很容易做到: object Global extends GlobalSettings { override def onStart(app: Application) { Logger.info("Application has started")

    2热度

    1回答

    我们知道,在阶,以创建二维阵列(矩阵),ofDim用于创建大量阵列的: def ofDim[T](n1: Int, n2: Int): Array[Array[T]] 其中参数只接受int类型。 如果我想创建一个包含大量元素的二维数组,那么应该使用多长时间?我可以使用其他什么方式来代替迪姆? 谢谢。

    0热度

    2回答

    我试图在特定区域获取推文。 我使用Spark 1.6.1(Scala)和Twitter4J 4.0.4。 节目的开始是标准的(按键等) 我创建了一个流与TwitterUtils像: val tweetStream = TwitterUtils.createStream(ssc, None, filter, StorageLevel.MEMORY_ONLY_SER_2) 我在我的研究中发现Fil

    3热度

    1回答

    在Spark Mllib(F分数,AUROC,AUPRC等)中训练随机森林二进制分类器模型时,我们如何获得模型度量? 的问题是,BinaryClassificationMetrics发生概率而随机森林分类的​​预测方法返回离散值0或1。 参见:https://spark.apache.org/docs/latest/mllib-evaluation-metrics.html#binary-clas

    1热度

    1回答

    我有以下两种情况下的类,请注意,第二种包括第一种(用户案例类)。 case class User(sk: Int, userid: String, firstName: String, lastName: String, email: String, notes: String) case class UserAp

    0热度

    2回答

    我刚开始使用Scala(2.11.7)中的akka​​流(2.4.6)和slick(3.1.1)。我使用Intellij(不确定是否重要,但我认为我会把它扔掉)。 val scanner: DatabasePublisher[Stage] = db.stream(action.transactionally.withStatementParameters(fetchSize = 5000)) v

    1热度

    1回答

    ./spark-shell scala> import org.slf4j.{Logger, LoggerFactory} import org.slf4j.{Logger, LoggerFactory} scala> val LOGGER = LoggerFactory.getLogger("testing") LOGGER: org.slf4j.Logger = org.slf4j

    0热度

    1回答

    我有一个文件列表,用它可以添加到一个JSON对象分别字段和值在Map[String, Any]的形式,以便数据。所以,我的代码解析的时候看起来是这样的: val JsonDoc = Json.obj( "ORFID" -> doc("ORFID").toString, "ORF_len" -> doc("ORF_len").toString, "start" ->