添加链接
link管理
链接快照平台
  • 输入网页链接,自动生成快照
  • 标签化管理网页链接

使用Snappy压缩时出现java.lang.UnsatisfiedLinkError: org.apache.hadoop.util.NativeCodeLoader.buildSupportsSnappy()Z的问题

精品微信小程序开发门户,代码全部亲测可用

14/09/18 20:59:50 WARN TaskSetManager: Lost task 0.0 in stage 1.0 (TID 0, vm-183): java.lang.UnsatisfiedLinkError: org.apache.hadoop.util.NativeCodeLoader.buildSupportsSnappy()Z
org.apache.hadoop.util.NativeCodeLoader.buildSupportsSnappy(Native Method)
org.apache.hadoop.io.compress.SnappyCodec.checkNativeCodeLoaded(SnappyCodec.java:63)
org.apache.hadoop.io.compress.SnappyCodec.getDecompressorType(SnappyCodec.java:190)
org.apache.hadoop.io.compress.CodecPool.getDecompressor(CodecPool.java:176)
org.apache.hadoop.io.SequenceFile$Reader.init(SequenceFile.java:1915)
org.apache.hadoop.io.SequenceFile$Reader.initialize(SequenceFile.java:1810)
org.apache.hadoop.io.SequenceFile$Reader.<init>(SequenceFile.java:1759)
com.spark.common.format.ProtobufFileInputFormat$ProtobufSequenceFileRecordReader.initialize(ProtobufFileInputFormat.java:76)
org.apache.spark.rdd.NewHadoopRDD$$anon$1.<init>(NewHadoopRDD.scala:117)
org.apache.spark.rdd.NewHadoopRDD.compute(NewHadoopRDD.scala:103)
org.apache.spark.rdd.NewHadoopRDD.compute(NewHadoopRDD.scala:65)
org.apache.spark.rdd.RDD.computeOrReadCheckpoint(RDD.scala:262)
org.apache.spark.rdd.RDD.iterator(RDD.scala:229)
org.apache.spark.rdd.UnionRDD.compute(UnionRDD.scala:86)

或者报如下错误:

Error: org.apache.spark.SparkException: Job aborted due to stage failure: Task 0 in stage 1.0 failed 4 times, 
most recent failure: Lost task 0.3 in stage 1.0 (TID 7, node3): java.lang.RuntimeException: native snappy library not available: this version of libhadoop was built without snappy support.
         at org.apache.hadoop.io.compress.SnappyCodec.checkNativeCodeLoaded(SnappyCodec.java:65)
         at org.apache.hadoop.io.compress.SnappyCodec.getDecompressorType(SnappyCodec.java:193)
         at org.apache.hadoop.io.compress.CodecPool.getDecompressor(CodecPool.java:178)
         at org.apache.hadoop.io.SequenceFile$Reader.init(SequenceFile.java:1918)
         at org.apache.hadoop.io.SequenceFile$Reader.initialize(SequenceFile.java:1813)
         at org.apache.hadoop.io.SequenceFile$Reader.<init>(SequenceFile.java:1762)
         at org.apache.hadoop.io.SequenceFile$Reader.<init>(SequenceFile.java:1776)
         at org.apache.hadoop.mapred.SequenceFileRecordReader.<init>(SequenceFileRecordReader.java:49)
         at org.apache.hadoop.mapred.SequenceFileInputFormat.getRecordReader(SequenceFileInputFormat.java:64)
         at org.apache.spark.rdd.HadoopRDD$$anon$1.<init>(HadoopRDD.scala:239)
         at org.apache.spark.rdd.HadoopRDD.compute(HadoopRDD.scala:216)
         at org.apache.spark.rdd.HadoopRDD.compute(HadoopRDD.scala:101)
         at org.apache.spark.rdd.RDD.computeOrReadCheckpoint(RDD.scala:277)
         at org.apache.spark.rdd.RDD.iterator(RDD.scala:244)
         at org.apache.spark.rdd.MapPartitionsRDD.compute(MapPartitionsRDD.scala:35)
.........                 

Spark使用Snappy时,检查是否有native的方法可供调用,结果是没有。

基于Flink+Doris构建高性能高扩展的全端实时数据仓库教程
数据仓库建模和实战教程(理论和业务结合)
Python实战金融风控回归模型(附代码)
【Python入门教程】零基础教程/全套教程|港大学霸系统精讲
MSF渗透实战训练营——入门至入狱系列【网络安全】
基于Flink+Hudi构建企业万亿级云上实时数据湖教程
python量化交易
自动化运维脚本编程:CMD/DOS批处理实战案例学习
  1. 进入Spark客户端的“$Spark_Client/conf/spark-defaults.conf”配置文件。
  2. 将spark.executor.extraJavaOptions和spark.driver.extraJavaOptions参数中加入如下参数值。 spark.executor.extraLibraryPath= -Djava.library.path=$HADOOP_HOME/lib/native spark.yarn.cluster.driver.extraLibraryPath= -Djava.library.path=$HADOOP_HOME/lib/native spark.driver.extraLibraryPath= -Djava.library.path=$HADOOP_HOME/lib/native
    • java.library.path的值对应的是实际环境中的路径。
    • spark.executor.extraJavaOptions和spark.driver.extraJavaOptions参数的等号后面需加空格。
    selenium自动输入特殊表情符号报错:selenium.common.exceptions.WebDriverException: Message: unknown error: ChromeDriver only supports characters in the BMP camel-ai的role_playing代码解读 亲测可用!!!Centos7安装chrome+chromedriver以便实现selenium自动化详细教程 清华开源ChatGPT自动编程ChatDev项目utils.py代码解读 清华开源ChatGPT自动编程ChatDev项目statistics.py代码解读 清华开源ChatGPT自动编程ChatDev项目roster.py代码解读 清华开源ChatGPT自动编程ChatDev项目phase.py代码解读 清华开源ChatGPT自动编程ChatDev项目documents.py代码解读
  3. 2023年11月
  4. 2023年10月
  5. 2023年9月
  6. 2023年8月
  7. 2023年7月
  8. 2023年6月
  9. 2023年5月
  10. 2023年4月
  11. 2023年3月
  12. 2023年1月
  13. 2022年11月
  14. 2022年10月
  15. 2022年9月
  16. 2022年8月
  17. 2022年7月
  18. 2022年6月
  19. 2022年5月
  20. 2022年4月
  21. 2022年3月
  22. 2022年2月
  23. 2022年1月
  24. 2021年12月
  25. 2021年11月
  26. 2021年9月
  27. 2021年8月
  28. 2021年7月
  29. 2021年6月
  30. 2021年5月
  31. 2021年4月
  32. 2021年3月
  33. 2021年2月
  34. 2021年1月
  35. 2020年12月
  36. 2020年11月
  37. 2020年10月
  38. 2020年9月
  39. 2020年8月
  40. 2020年7月
  41. 2020年6月
  42. 2020年5月
  43. 2020年4月
  44. 2020年3月
  45. 2020年2月
  46. 2020年1月
  47. 2019年7月
  48. 2019年6月
  49. 2019年5月
  50. 2019年4月
  51. 2019年3月
  52. 2019年2月
  53. 2019年1月
  54. 2018年12月
  55. 2018年7月
  56. 2018年6月
  57. Android (44)
  58. bug清单 (70)
  59. Fuchsia (15)
  60. php (4)
  61. python (33)
  62. sklearn (1)
  63. 云计算 (20)
  64. 人工智能 (55)
  65. chatgpt (19)
  66. 提示词 (5)
  67. Keras (1)
  68. Tensorflow (3)
  69. 大模型 (1)
  70. 智能体 (1)
  71. 深度学习 (13)
  72. 大数据开发 (367)
  73. CDH (4)
  74. datax (2)
  75. doris (21)
  76. Elasticsearch (14)
  77. Flink (47)
  78. flume (7)
  79. Hadoop (16)
  80. Hbase (14)
  81. Hive (29)
  82. Java (49)
  83. Kafka (9)
  84. neo4j (5)
  85. shardingsphere (6)
  86. solr (4)
  87. Spark (88)
  88. spring (11)
  89. 数据仓库 (5)
  90. 数据挖掘 (6)
  91. 运维 (20)
  92. Docker (2)