再不点蓝字关注,机会就要飞走了哦!
Spark版本 2.2.0
Spark运行在Java 8+,Python 2.7 + 3.4 +和R 3.1+上。对于Scala API,Spark 2.2.0使用Scala 2.11。
您将需要使用兼容的Scala版本(2.11.x)。
请注意,从Spark 2.2.0开始,对2.6.5之前的Java 7,Python 2.6和旧Hadoop版本的支持已被删除。
请注意,从Spark 2.1.0开始不支持Scala 2.10,可能会在Spark 2.3.0中删除。
Spark版本 2.1.1
Spark运行在Java 7+,Python 2.6 + 3.4 +和R 3.1+上。对于Scala API,Spark 2.1.1使用Scala 2.11。
您将需要使用兼容的Scala版本(2.11.x)。
Spark版本 2.1.0
Spark运行在Java 7+,Python 2.6 + 3.4 +和R 3.1+上。对于Scala API,Spark 2.1.0使用Scala 2.11。
您将需要使用兼容的Scala版本(2.11.x)。
Spark版本 2.0.2
Spark运行在Java 7+,Python 2.6 + 3.4 +和R 3.1+上。对于Scala API,Spark 2.0.2使用Scala 2.11。
您将需要使用兼容的Scala版本(2.11.x)。
Spark版本 2.0.1
Spark运行在Java 7+,Python 2.6 + 3.4 +和R 3.1+上。对于Scala API,Spark 2.0.1使用Scala 2.11。
您将需要使用兼容的Scala版本(2.11.x)。
Spark版本 2.0.0
Spark运行在Java 7+,Python 2.6 + 3.4 +和R 3.1+上。对于Scala API,Spark 2.0.0使用Scala 2.11。
您将需要使用兼容的Scala版本(2.11.x)。
Spark版本 1.6.3
Spark运行在Java 7+,Python 2.6+和R 3.1+上。对于Scala API,Spark 1.6.3使用Scala 2.10。
您需要使用兼容的Scala版本(2.10.x)。
Spark版本 1.6.2
Spark运行在Java 7+,Python 2.6+和R 3.1+上。对于Scala API,Spark 1.6.2使用Scala 2.10。
您需要使用兼容的Scala版本(2.10.x)。
Spark版本 1.6.1
Spark运行在Java 7+,Python 2.6+和R 3.1+上。对于Scala API,Spark 1.6.1使用Scala 2.10。
您需要使用兼容的Scala版本(2.10.x)。
Spark版本 1.6.0
Spark运行在Java 7+,Python 2.6+和R 3.1+上。对于Scala API,Spark 1.6.0使用Scala 2.10。
您需要使用兼容的Scala版本(2.10.x)。
Spark版本 1.5.2
Spark运行在Java 7+,Python 2.6+和R 3.1+上。对于Scala API,Spark 1.5.2使用Scala 2.10。
您需要使用兼容的Scala版本(2.10.x)。
Spark版本 1.5.1
Spark运行在Java 7+,Python 2.6+和R 3.1+上。对于Scala API,Spark 1.5.1使用Scala 2.10。
您需要使用兼容的Scala版本(2.10.x)。
Spark版本 1.5.0
Spark运行在Java 7+,Python 2.6+和R 3.1+上。对于Scala API,Spark 1.5.0使用Scala 2.10。
您需要使用兼容的Scala版本(2.10.x)。
Spark版本 1.4.1
Spark运行在Java 6+,Python 2.6+和R 3.1+上。对于Scala API,Spark 1.4.1使用Scala 2.10。
您需要使用兼容的Scala版本(2.10.x)。
Spark版本 1.4.0
Spark运行在Java 6+,Python 2.6+和R 3.1+上。对于Scala API,Spark 1.4.0使用Scala 2.10。
您需要使用兼容的Scala版本(2.10.x)。
Spark版本 1.3.1
Spark运行在Java 6+和Python 2.6+上。对于Scala API,Spark 1.3.1使用Scala 2.10。
您需要使用兼容的Scala版本(2.10.x)。
Spark版本 1.3.0
Spark运行在Java 6+和Python 2.6+上。对于Scala API,Spark 1.3.0使用Scala 2.10。
您需要使用兼容的Scala版本(2.10.x)。
Spark版本 1.2.1
Spark运行在Java 6+和Python 2.6+上。对于Scala API,Spark 1.2.1使用Scala 2.10。
您需要使用兼容的Scala版本(2.10.x)。
Spark版本 1.1.1
Spark运行在Java 6+和Python 2.6+上。对于Scala API,Spark 1.1.1使用Scala 2.10。
您需要使用兼容的Scala版本(2.10.x)。
Spark版本 1.0.2
Spark运行在Java 6+和Python 2.6+上。对于Scala API,Spark 1.0.2使用Scala 2.10。
您需要使用兼容的Scala版本(2.10.x)。
Spark版本 0.9.2
对于Scala API,Spark 0.9.2依赖于Scala 2.10。如果您使用Scala编写应用程序,则
需要使用兼容的Scala版本(例如2.10.X) - 较新的主要版本可能无法使用。
Spark版本 0.8.1
对于它的Scala API,Spark 0.8.1-孵化取决于Scala 2.9.3。如果您使用Scala编写应用程序,则需要在您自己的程序中使用相同版本的Scala - 新的主要版本可能无法正常工作。
Spark版本 0.7.3
Spark需要Scala 2.9.3。
Spark版本 0.6.2
Spark需要Scala 2.9.2。
想对你说:“
昨天越来越多,明天越来越少,这就叫人生。
你之所以觉得时间一年比一年过得快,
是因为时间对你一年比一年重要。
别因为害怕孤单而凑合着相拥,
也别因为一时的别无选择而将就的活着,
总要有一段路,需要你独自走过。
愿你是阳光,明媚不忧伤。”
Hbase|Kylin|Hive|Impala|Spark|Phoenix ect.
第一个专注Hbase公众号
虽没官方认证
但这一定是个负责任的公众号
将最好的祝福送给正在阅读的你,感恩!