亨利马乌0.13.0/JAVA 8如何写亨利马乌推荐星火
我在Mahout中全新的,并试图了解如何使用Mahout的实现推荐引擎。到目前为止,我知道..
亨利马乌提供了3种类型的过滤 -
- 协同过滤(非Hadoop的基础)
- 分类(基于Hadoop的)
- 聚类(Hadoop的基础)
- 内容基于过滤
要开始实施我的第一个建议,我开始使用协作过滤w这很容易在没有Hadoop的情况下实现。
协同过滤 -
- 基于用户的建议
- 项目基于建议
- 趿拉着一个
- 和一些更多...
亨利马乌接口:
1 .DataModel 2. UserSimilarity 3. ItemSimilarity 4. UserNeighborhood 5.推荐器
我理解它的部件,并使用相似性和附近的多个组合有书面基于用户和项目推荐。
问:
- 由于协同过滤基于映射简化,是否亨利马乌弃用0.13.0版本完全的map-reduce?是否所有协作过滤算法都被弃用?什么是替代呢? Spark是否因为与Spark相比Map-Reduce性能较差?
- 我查过,Mahout也提供Spark和Flink的支持。 Mahout spark提供2种类型的过滤 - >火花项目相似度和火花行相似度。但我还没有找到任何基于Java的示例来创建java中的建议。
- 可能是Mahout Spark与Scala有更好的兼容性,但是我们可以在Java中编写基于火花项目相似度和火花行相似度的推荐引擎吗?建议一些例子。
- Mahout Spark可以在没有Hadoop的情况下独立运行?到目前为止,我知道Spark是Hadoop的替代品,我们可以在其中进行实时处理。我需要添加什么库,除了mahout-spark_2.10-0.13.0.jar和mahout-spark_2.10-0.13.0-dependency-reduced.jar?
- Mahout spark与独立Apache Spark不同吗?我正在考虑单独使用Apache Spark。
可有人请澄清我。
感谢@rawkintrevo为您解答。你能否让我也知道是否可以在Spark中使用Solr作为数据源? –
如果你编写你自己的推荐器,你可以使用任何东西作为数据源,Solr提供一个Spark读/写库。 – pferrel
将Solr读作Spark Spark RDD:https://github.com/lucidworks/spark-solr – rawkintrevo