hadoop mysql中文乱码_Hive元数据存于mysql中文乱码解决-程序员宅基地

技术标签: hadoop mysql中文乱码  

最近在搭一套Hive测试环境,使用mysql存储hive的元数据,然而当执行一个带有中文注释的建表文件时,出现了中文乱码的问题。实验过程中发现把整个数据库编码改成latin1或者Utf8都不行,只有把整个数据库设定为latin1而把要存储中文的数据表的编码设定为UTF8才能够解决。

出现问题:执行hive -f "createtable.sql"时说中文乱码不认识。

尝试1失败:将meta database(mysql)的编码全部设定为utf8

则报以下错误

——————-

FAILED: Error in metadata: javax.jdo.JDODataStoreException: An exception was thrown while adding/validating class(es) : Specified key was too long; max key length is 767 bytes

com.mysql.jdbc.exceptions.jdbc4.MySQLSyntaxErrorException: Specified key was too long; max key length is 767 bytes

at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)

at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:39)

at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:27)

at java.lang.reflect.Constructor.newInstance(Constructor.java:513)

at com.mysql.jdbc.Util.handleNewInstance(Util.java:411)

at com.mysql.jdbc.Util.getInstance(Util.java:386)

at com.mysql.jdbc.SQLError.createSQLException(SQLError.java:1052)

at com.mysql.jdbc.MysqlIO.checkErrorPacket(MysqlIO.java:3609)

at com.mysql.jdbc.MysqlIO.checkErrorPacket(MysqlIO.java:3541)

at com.mysql.jdbc.MysqlIO.sendCommand(MysqlIO.java:2002)

at com.mysql.jdbc.MysqlIO.sqlQueryDirect(MysqlIO.java:2163)

at com.mysql.jdbc.ConnectionImpl.execSQL(ConnectionImpl.java:2618)

at com.mysql.jdbc.ConnectionImpl.execSQL(ConnectionImpl.java:2568)

at com.mysql.jdbc.StatementImpl.execute(StatementImpl.java:842)

at com.mysql.jdbc.StatementImpl.execute(StatementImpl.java:681)

at org.apache.commons.dbcp.DelegatingStatement.execute(DelegatingStatement.java:264)

at org.apache.commons.dbcp.DelegatingStatement.execute(DelegatingStatement.java:264)

at org.datanucleus.store.rdbms.table.AbstractTable.executeDdlStatement(AbstractTable.java:730)

at org.datanucleus.store.rdbms.table.AbstractTable.executeDdlStatementList(AbstractTable.java:681)

at org.datanucleus.store.rdbms.table.AbstractTable.create(AbstractTable.java:402)

at org.datanucleus.store.rdbms.table.AbstractTable.exists(AbstractTable.java:458)

at org.datanucleus.store.rdbms.RDBMSStoreManager$ClassAdder.performTablesValidation(RDBMSStoreManager.java:2689)

at org.datanucleus.store.rdbms.RDBMSStoreManager$ClassAdder.addClassTablesAndValidate(RDBMSStoreManager.java:2503)

at org.datanucleus.store.rdbms.RDBMSStoreManager$ClassAdder.run(RDBMSStoreManager.java:2148)

at org.datanucleus.store.rdbms.AbstractSchemaTransaction.execute(AbstractSchemaTransaction.java:113)

at org.datanucleus.store.rdbms.RDBMSStoreManager.addClasses(RDBMSStoreManager.java:986)

at org.datanucleus.store.rdbms.RDBMSStoreManager.addClasses(RDBMSStoreManager.java:952)

at org.datanucleus.store.AbstractStoreManager.addClass(AbstractStoreManager.java:919)

at org.datanucleus.store.mapped.MappedStoreManager.getDatastoreClass(MappedStoreManager.java:356)

at org.datanucleus.store.rdbms.query.legacy.ExtentHelper.getExtent(ExtentHelper.java:48)

at org.datanucleus.store.rdbms.RDBMSStoreManager.getExtent(RDBMSStoreManager.java:1332)

at org.datanucleus.ObjectManagerImpl.getExtent(ObjectManagerImpl.java:4149)

at org.datanucleus.store.rdbms.query.legacy.JDOQLQueryCompiler.compileCandidates(JDOQLQueryCompiler.java:411)

at org.datanucleus.store.rdbms.query.legacy.QueryCompiler.executionCompile(QueryCompiler.java:312)

at org.datanucleus.store.rdbms.query.legacy.JDOQLQueryCompiler.compile(JDOQLQueryCompiler.java:225)

at org.datanucleus.store.rdbms.query.legacy.JDOQLQuery.compileInternal(JDOQLQuery.java:175)

at org.datanucleus.store.query.Query.executeQuery(Query.java:1628)

at org.datanucleus.store.rdbms.query.legacy.JDOQLQuery.executeQuery(JDOQLQuery.java:245)

at org.datanucleus.store.query.Query.executeWithArray(Query.java:1499)

at org.datanucleus.jdo.JDOQuery.execute(JDOQuery.java:266)

at org.apache.hadoop.hive.metastore.ObjectStore.getMTable(ObjectStore.java:775)

at org.apache.hadoop.hive.metastore.ObjectStore.getTable(ObjectStore.java:709)

at org.apache.hadoop.hive.metastore.HiveMetaStore$HMSHandler.is_table_exists(HiveMetaStore.java:965)

at org.apache.hadoop.hive.metastore.HiveMetaStore$HMSHandler.create_table_core(HiveMetaStore.java:887)

at org.apache.hadoop.hive.metastore.HiveMetaStore$HMSHandler.access$600(HiveMetaStore.java:109)

at org.apache.hadoop.hive.metastore.HiveMetaStore$HMSHandler$15.run(HiveMetaStore.java:945)

at org.apache.hadoop.hive.metastore.HiveMetaStore$HMSHandler$15.run(HiveMetaStore.java:942)

at org.apache.hadoop.hive.metastore.HiveMetaStore$HMSHandler.executeWithRetry(HiveMetaStore.java:307)

at org.apache.hadoop.hive.metastore.HiveMetaStore$HMSHandler.create_table(HiveMetaStore.java:942)

at org.apache.hadoop.hive.metastore.HiveMetaStoreClient.createTable(HiveMetaStoreClient.java:348)

at org.apache.hadoop.hive.ql.metadata.Hive.createTable(Hive.java:469)

at org.apache.hadoop.hive.ql.exec.DDLTask.createTable(DDLTask.java:3149)

at org.apache.hadoop.hive.ql.exec.DDLTask.execute(DDLTask.java:213)

at org.apache.hadoop.hive.ql.exec.Task.executeTask(Task.java:130)

at org.apache.hadoop.hive.ql.exec.TaskRunner.runSequential(TaskRunner.java:57)

at org.apache.hadoop.hive.ql.Driver.launchTask(Driver.java:1063)

at org.apache.hadoop.hive.ql.Driver.execute(Driver.java:900)

at org.apache.hadoop.hive.ql.Driver.run(Driver.java:748)

at org.apache.hadoop.hive.cli.CliDriver.processCmd(CliDriver.java:165)

at org.apache.hadoop.hive.cli.CliDriver.processLine(CliDriver.java:246)

at org.apache.hadoop.hive.cli.CliDriver.processReader(CliDriver.java:267)

at org.apache.hadoop.hive.cli.CliDriver.processFile(CliDriver.java:274)

at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:435)

at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)

at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)

at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)

at java.lang.reflect.Method.invoke(Method.java:597)

at org.apache.hadoop.mapred.util.RunJar.main(RunJar.java:210)

at org.apache.hadoop.mapred.JobShell.run(JobShell.java:54)

at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:65)

at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:79)

at org.apache.hadoop.mapred.JobShell.main(JobShell.java:68)

NestedThrowables:

com.mysql.jdbc.exceptions.jdbc4.MySQLSyntaxErrorException: Specified key was too long; max key length is 767 bytes

FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask

——————-

尝试2失败:将meta server(mysql)的编码全部设定为latin1

则报以下错误:

———

[[email protected] sql]$ hive -f crazyant.sql

Hive history file=/tmp/crazyant/hive_job_log_crazyant_20130904.txt

OK

Time taken: 2.064 seconds

FAILED: Error in metadata: javax.jdo.JDODataStoreException: Add request failed : INSERT INTO `COLUMNS` (`SD_ID`,`COMMENT`,`COLUMN_NAME`,`TYPE_NAME`,`INTEGER_IDX`) VALUES (?,?,?,?,?)

NestedThrowables:

java.sql.BatchUpdateException: Incorrect string value: ‘\xC2\x8A\xC2\xA8\xC3\xA7…’ for column ‘COMMENT’ at row 1

FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask

———

解决方案:数据库编码为latin1,COLUMNS表和TABLE_PARAMS表编码设定为UTF8

1、首先按照latin1编码建立hive的meta数据库;

2、修改hive-default.xml的连接编码为UTF8;

javax.jdo.option.ConnectionURL

jdbc:mysql://IP:3306/hive?createDatabaseIfNotExist=true&characterEncoding=UTF-8

JDBC connect string for a JDBC metastore

3、然后进入数据库执行以下两条SQL语句:该语句将HIVE的COLUMNS 表的column 列改成UTF8编码

alter table COLUMNS modify column COMMENT varchar(256) character set utf8

该语句将HIVE的TABLE_PARAMS 表的PARAM_VALUE 列改成UTF8编码

alter table TABLE_PARAMS modify column PARAM_VALUE varchar(4000) character set utf8

执行完后用hive -f create_table.sql 中文乱码没有出现,进入数据库执行desc table;语句也没有出现乱码。

问题解决。

相关推荐

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/weixin_39980347/article/details/113890255

智能推荐

Spring设计模式之——策略模式_spring 策略模式-程序员宅基地

文章浏览阅读470次。这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入欢迎使用Ma..._spring 策略模式

前后端分离项目的跨域问题_偌依前端跨域问题-程序员宅基地

文章浏览阅读786次。springboot+vue 的前后端分离项目, 尝试解决跨域问题._偌依前端跨域问题

分享6个AI绘画网站_gptai绘画网址-程序员宅基地

文章浏览阅读1.2k次。官网:https://www.midjourney.com/特点:免费且效果不错Stable Diffusion是一个文本生成图像的模型。现在有人把它做成网站了。可以生成与Dall-E相似质量的图像,但其特征较为简单。虽然有时图像可能与提示不完全匹配,但只要你正确书写提示,就能够生成很棒的图像。更为优秀的是,它是完全免费且开源的。没有基于信用积分的系统,您可以随意生成任意数量的图像!官网:https://stablediffusionweb.com/特点:可利用AI生成海报。_gptai绘画网址

Android应用具有persist属性时如何自升级_persistent 升级安装-程序员宅基地

文章浏览阅读5.6k次,点赞2次,收藏5次。Android系统中,为了某些目的需要保证应用运行时尽量不被系统kill(特别是处于后台时),所以都会给应用增加persist标签,以避免在系统低内存时被系统kill。但是添加了该属性的应用如果需要进行应用自升级(无论是别的应用进行安装升级还是应用自己安装自己进行应用升级),有一些需要特别注意的地方,否则就会导致程序的运行状态错乱。 一般没有persist属_persistent 升级安装

crontab_crontab查看执行情况-程序员宅基地

文章浏览阅读4.6k次。Linux crontab定时任务_crontab查看执行情况

Mac环境变量配置(Java)_mac配置java环境变量-程序员宅基地

文章浏览阅读1.1w次,点赞7次,收藏43次。1.打开终端:2.输入命令:【/usr/libexec/java_home -V】,查看默认的jdk下载地址(绿色下划线的就是jdk默认路径)(注意️:命令行终端是区分大小写的【-v 是不对的,必须是大写 -V】)3.如果是第一次配置环境变量,使用命令:【touch .bash_profile】创建一个.bash_profile隐藏配置文件(如果存在已有配置文件就输入:【open -e .bash_profile】)打开如下4.输入以下命令:(注意️:红色字体是第2步查出来自己jd..._mac配置java环境变量

随便推点

flask_sqlalchemy的session线程安全_flask session_options-程序员宅基地

文章浏览阅读3.4k次,点赞2次,收藏5次。flask_sqlalchemy是如何在多线程中对数据库操作不相互影响参考来源:1.https://www.cnblogs.com/lgjbky/p/9482278.html2.http://www.cnblogs.com/ctztake/p/8277372.html3.https://stackoverflow.com/questions/39480914/why-db-s..._flask session_options

基于 SpringBoot + Vue 的前后端分离游戏资讯平台_前后端咨询-程序员宅基地

文章浏览阅读804次。基于 SpringBoot + Vue 的前后端分离游戏资讯平台,使用 Shiro 进行权限控制,使用 JWT 作为交互 token,使用 Aspectj 进行切面编程,使用 Spring Data Jpa 方便进行数据库操作,使用 Druid 作为数据库连接池,使用 MySQL 作为数据库;前端使用 element-ui 作为组件库,使用 bootstrap-vue 进行响应式编程。......_前后端咨询

【深入理解C++】空类对象所占用的空间大小_c++空类大小-程序员宅基地

文章浏览阅读1.4k次,点赞4次,收藏6次。1.须知 2.空类对象所占用的空间大小 3.一个类继承空类 4.空类作为另一个类的成员_c++空类大小

linux 磁盘 ssd 机械硬盘分区,linux(centos7)上的硬盘种类、结构、磁盘分区方式、分区结构...-程序员宅基地

文章浏览阅读629次。硬盘硬盘机械硬盘、固态硬盘机械硬盘(HDD)Hard Disk Drive,即是传统普通硬盘,主要由:盘片,磁头,盘片转轴及控制电机,磁头控制器,数据转换器,接口,缓存等几个部分组成。机械硬盘中所有的盘片都装在一个旋转轴上,每张盘片之间是平行的,在每个盘片的存储面上有一个磁头,磁头与盘片之间的距离比头发丝的直径还小,所有的磁头联在一个磁头控制器上,由磁头控制器负责各个磁头的运动。磁头可沿盘片的半径..._固态硬盘和机械硬盘怎么给linux分区

Nor Flash 与 Nand Flash_nand flash norflash互换-程序员宅基地

文章浏览阅读781次。NOR和NAND是现在市场上两种主要的非易失闪存技术。历史Intel于1988年首先开发出NOR flash技术,彻底改变了原先由EPROM和EEPROM一统天下的局面。1989年,东芝公司发表了NAND flash结构,强调降低每比特的成本,更高的性能,并且象磁盘一样可以通过接口轻松升级。相“flash存储器”经常可以与相“NOR存储器”互换使用。许多业内人士也搞不清楚NAND闪存_nand flash norflash互换

为何你的 App 在 iPhone 12 上显示异常,而别人的不会?-程序员宅基地

文章浏览阅读235次。Python实战社群Java实战社群长按识别下方二维码,按需求添加扫码关注添加客服进Python社群▲扫码关注添加客服进Java社群▲转自:hite和落雁背景10月14日 iPhone ..._ios12 pro 系统异常