hadoop hdfs dfs 命令讲解_大数据的未来的博客-CSDN博客_hdfs dfs -cp


本站和网页 https://blog.csdn.net/u010220089/article/details/45937417 的作者无关,不对其内容负责。快照谨为网络故障时之索引,不代表被搜索网站的即时页面。

hadoop hdfs dfs 命令讲解_大数据的未来的博客-CSDN博客_hdfs dfs -cp
hadoop hdfs dfs 命令讲解
大数据的未来
于 2015-05-23 21:20:49 发布
52234
收藏
23
分类专栏:
大数据
文章标签:
hadoop
hdfs
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/u010220089/article/details/45937417
版权
大数据
专栏收录该内容
25 篇文章
0 订阅
订阅专栏
hdfs dfs命令
appendToFile
Usage: hdfs dfs -appendToFile <localsrc> ... <dst>
追加一个或者多个文件到hdfs制定文件中.也可以从命令行读取输入.
· hdfs dfs -appendToFile localfile /user/hadoop/hadoopfile
· hdfs dfs -appendToFile localfile1 localfile2 /user/hadoop/hadoopfile
· hdfs dfs -appendToFile localfile hdfs://nn.example.com/hadoop/hadoopfile
· hdfs dfs -appendToFile - hdfs://nn.example.com/hadoop/hadoopfile Reads the input from stdin.
Exit Code:
Returns 0 on success and 1 on error.
cat
Usage: hdfs dfs -cat URI [URI ...]
查看内容.
Example:
· hdfs dfs -cat hdfs://nn1.example.com/file1 hdfs://nn2.example.com/file2
· hdfs dfs -cat file:///file3 /user/hadoop/file4
Exit Code:
Returns 0 on success and -1 on error.
Chgrp【change group】
Usage: hdfs dfs -chgrp [-R] GROUP URI [URI ...]
修改所属组.
Options
· The -R option will make the change recursively through the directory structure.
chmod
Usage: hdfs dfs -chmod [-R] <MODE[,MODE]... | OCTALMODE> URI [URI ...]
修改权限.
Options
· The -R option will make the change recursively through the directory structure.
chown
Usage: hdfs dfs -chown [-R] [OWNER][:[GROUP]] URI [URI ]
修改所有者.
Options
· The -R option will make the change recursively through the directory structure.
copyFromLocal
Usage: hdfs dfs -copyFromLocal <localsrc> URI
Similar to put command, except that the source is restricted to a local file reference.
Options:
· The -f option will overwrite the destination if it already exists.
copyToLocal
Usage: hdfs dfs -copyToLocal [-ignorecrc] [-crc] URI <localdst>
Similar to get command, except that the destination is restricted to a local file reference.
count
Usage: hdfs dfs -count [-q] [-h] <paths>
列出文件夹数量、文件数量、内容大小. The output columns with -count are: DIR_COUNT, FILE_COUNT, CONTENT_SIZE FILE_NAME
The output columns with -count -q are: QUOTA, REMAINING_QUATA, SPACE_QUOTA, REMAINING_SPACE_QUOTA, DIR_COUNT, FILE_COUNT, CONTENT_SIZE, FILE_NAME
The -h option shows sizes in human readable format.
Example:
· hdfs dfs -count hdfs://nn1.example.com/file1 hdfs://nn2.example.com/file2
· hdfs dfs -count -q hdfs://nn1.example.com/file1
· hdfs dfs -count -q -h hdfs://nn1.example.com/file1
Exit Code:
Returns 0 on success and -1 on error.
cp
Usage: hdfs dfs -cp [-f] [-p | -p[topax]] URI [URI ...] <dest>
复制文件(夹),可以覆盖,可以保留原有权限信息
Options:
· The -f option will overwrite the destination if it already exists.
· The -p option will preserve file attributes [topx] (timestamps, ownership, permission, ACL, XAttr). If -p is specified with no arg, then preserves timestamps, ownership, permission. If -pa is specified, then preserves permission also because ACL is a super-set of permission. Determination of whether raw namespace extended attributes are preserved is independent of the -p flag.
Example:
· hdfs dfs -cp /user/hadoop/file1 /user/hadoop/file2
· hdfs dfs -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir
Exit Code:
Returns 0 on success and -1 on error.
du
Usage: hdfs dfs -du [-s] [-h] URI [URI ...]
显示文件(夹)大小.
Options:
· The -s option will result in an aggregate summary of file lengths being displayed, rather than the individual files.
· The -h option will format file sizes in a "human-readable" fashion (e.g 64.0m instead of 67108864)
Example:
· hdfs dfs -du /user/hadoop/dir1 /user/hadoop/file1 hdfs://nn.example.com/user/hadoop/dir1
Exit Code: Returns 0 on success and -1 on error.
dus
Usage: hdfs dfs -dus <args>
Displays a summary of file lengths.
Note: This command is deprecated. Instead use hdfs dfs -du -s.
expunge
Usage: hdfs dfs -expunge
清空回收站.
get
Usage: hdfs dfs -get [-ignorecrc] [-crc] <src> <localdst>
Copy files to the local file system. Files that fail the CRC check may be copied with the -ignorecrc option. Files and CRCs may be copied using the -crc option.
Example:
· hdfs dfs -get /user/hadoop/file localfile
· hdfs dfs -get hdfs://nn.example.com/user/hadoop/file localfile
Exit Code:
Returns 0 on success and -1 on error.
getfacl
Usage: hdfs dfs -getfacl [-R] <path>
显示权限信息.
Options:
· -R: List the ACLs of all files and directories recursively.
· path: File or directory to list.
Examples:
· hdfs dfs -getfacl /file
· hdfs dfs -getfacl -R /dir
Exit Code:
Returns 0 on success and non-zero on error.
getfattr
Usage: hdfs dfs -getfattr [-R] -n name | -d [-e en] <path>
Displays the extended attribute names and values (if any) for a file or directory.
Options:
· -R: Recursively list the attributes for all files and directories.
· -n name: Dump the named extended attribute value.
· -d: Dump all extended attribute values associated with pathname.
· -e encoding: Encode values after retrieving them. Valid encodings are "text", "hex", and "base64". Values encoded as text strings are enclosed in double quotes ("), and values encoded as hexadecimal and base64 are prefixed with 0x and 0s, respectively.
· path: The file or directory.
Examples:
· hdfs dfs -getfattr -d /file
· hdfs dfs -getfattr -R -n user.myAttr /dir
Exit Code:
Returns 0 on success and non-zero on error.
getmerge
Usage: hdfs dfs -getmerge <src> <localdst> [addnl]
合并.
ls
Usage: hdfs dfs -ls [-R] <args>
Options:
· The -R option will return stat recursively through the directory structure.
For a file returns stat on the file with the following format:
permissions number_of_replicas userid groupid filesize modification_date modification_time filename
For a directory it returns list of its direct children as in Unix. A directory is listed as:
permissions userid groupid modification_date modification_time dirname
Example:
· hdfs dfs -ls /user/hadoop/file1
Exit Code:
Returns 0 on success and -1 on error.
lsr
Usage: hdfs dfs -lsr <args>
Recursive version of ls.
Note: This command is deprecated. Instead use hdfs dfs -ls -R
mkdir
Usage: hdfs dfs -mkdir [-p] <paths>
Takes path uri's as argument and creates directories.
Options:
· The -p option behavior is much like Unix mkdir -p, creating parent directories along the path.
Example:
· hdfs dfs -mkdir /user/hadoop/dir1 /user/hadoop/dir2
· hdfs dfs -mkdir hdfs://nn1.example.com/user/hadoop/dir hdfs://nn2.example.com/user/hadoop/dir
Exit Code:
Returns 0 on success and -1 on error.
moveFromLocal
Usage: hdfs dfs -moveFromLocal <localsrc> <dst>
Similar to put command, except that the source localsrc is deleted after it's copied.
moveToLocal
Usage: hdfs dfs -moveToLocal [-crc] <src> <dst>
Displays a "Not implemented yet" message.
mv
Usage: hdfs dfs -mv URI [URI ...] <dest>
Moves files from source to destination. This command allows multiple sources as well in which case the destination needs to be a directory. Moving files across file systems is not permitted.
Example:
· hdfs dfs -mv /user/hadoop/file1 /user/hadoop/file2
· hdfs dfs -mv hdfs://nn.example.com/file1 hdfs://nn.example.com/file2 hdfs://nn.example.com/file3 hdfs://nn.example.com/dir1
Exit Code:
Returns 0 on success and -1 on error.
put
Usage: hdfs dfs -put <localsrc> ... <dst>
Copy single src, or multiple srcs from local file system to the destination file system. Also reads input from stdin and writes to destination file system.
· hdfs dfs -put localfile /user/hadoop/hadoopfile
· hdfs dfs -put localfile1 localfile2 /user/hadoop/hadoopdir
· hdfs dfs -put localfile hdfs://nn.example.com/hadoop/hadoopfile
· hdfs dfs -put - hdfs://nn.example.com/hadoop/hadoopfile Reads the input from stdin.
Exit Code:
Returns 0 on success and -1 on error.
rm
Usage: hdfs dfs -rm [-f] [-r|-R] [-skipTrash] URI [URI ...]
Delete files specified as args.
Options:
· The -f option will not display a diagnostic message or modify the exit status to reflect an error if the file does not exist.
· The -R option deletes the directory and any content under it recursively.
· The -r option is equivalent to -R.
· The -skipTrash option will bypass trash, if enabled, and delete the specified file(s) immediately. This can be useful when it is necessary to delete files from an over-quota directory.
Example:
· hdfs dfs -rm hdfs://nn.example.com/file /user/hadoop/emptydir
Exit Code:
Returns 0 on success and -1 on error.
rmr
Usage: hdfs dfs -rmr [-skipTrash] URI [URI ...]
Recursive version of delete.
Note: This command is deprecated. Instead use hdfs dfs -rm -r
setfacl
Usage: hdfs dfs -setfacl [-R] [-b|-k -m|-x <acl_spec> <path>]|[--set <acl_spec> <path>]
Sets Access Control Lists (ACLs) of files and directories.
Options:
· -b: Remove all but the base ACL entries. The entries for user, group and others are retained for compatibility with permission bits.
· -k: Remove the default ACL.
· -R: Apply operations to all files and directories recursively.
· -m: Modify ACL. New entries are added to the ACL, and existing entries are retained.
· -x: Remove specified ACL entries. Other ACL entries are retained.
· --set: Fully replace the ACL, discarding all existing entries. The acl_spec must include entries for user, group, and others for compatibility with permission bits.
· acl_spec: Comma separated list of ACL entries.
· path: File or directory to modify.
Examples:
· hdfs dfs -setfacl -m user:hadoop:rw- /file
· hdfs dfs -setfacl -x user:hadoop /file
· hdfs dfs -setfacl -b /file
· hdfs dfs -setfacl -k /dir
· hdfs dfs -setfacl --set user::rw-,user:hadoop:rw-,group::r--,other::r-- /file
· hdfs dfs -setfacl -R -m user:hadoop:r-x /dir
· hdfs dfs -setfacl -m default:user:hadoop:r-x /dir
Exit Code:
Returns 0 on success and non-zero on error.
setfattr
Usage: hdfs dfs -setfattr -n name [-v value] | -x name <path>
Sets an extended attribute name and value for a file or directory.
Options:
· -b: Remove all but the base ACL entries. The entries for user, group and others are retained for compatibility with permission bits.
· -n name: The extended attribute name.
· -v value: The extended attribute value. There are three different encoding methods for the value. If the argument is enclosed in double quotes, then the value is the string inside the quotes. If the argument is prefixed with 0x or 0X, then it is taken as a hexadecimal number. If the argument begins with 0s or 0S, then it is taken as a base64 encoding.
· -x name: Remove the extended attribute.
· path: The file or directory.
Examples:
· hdfs dfs -setfattr -n user.myAttr -v myValue /file
· hdfs dfs -setfattr -n user.noValue /file
· hdfs dfs -setfattr -x user.myAttr /file
Exit Code:
Returns 0 on success and non-zero on error.
setrep
Usage: hdfs dfs -setrep [-R] [-w] <numReplicas> <path>
Changes the replication factor of a file. If path is a directory then the command recursively changes the replication factor of all files under the directory tree rooted at path.
Options:
· The -w flag requests that the command wait for the replication to complete. This can potentially take a very long time.
· The -R flag is accepted for backwards compatibility. It has no effect.
Example:
· hdfs dfs -setrep -w 3 /user/hadoop/dir1
Exit Code:
Returns 0 on success and -1 on error.
stat
Usage: hdfs dfs -stat URI [URI ...]
Returns the stat information on the path.
Example:
· hdfs dfs -stat path
Exit Code: Returns 0 on success and -1 on error.
tail
Usage: hdfs dfs -tail [-f] URI
Displays last kilobyte of the file to stdout.
Options:
· The -f option will output appended data as the file grows, as in Unix.
Example:
· hdfs dfs -tail pathname
Exit Code: Returns 0 on success and -1 on error.
test
Usage: hdfs dfs -test -[ezd] URI
Options:
· The -e option will check to see if the file exists, returning 0 if true.
· The -z option will check to see if the file is zero length, returning 0 if true.
· The -d option will check to see if the path is directory, returning 0 if true.
Example:
· hdfs dfs -test -e filename
text
Usage: hdfs dfs -text <src>
Takes a source file and outputs the file in text format. The allowed formats are zip and TextRecordInputStream.
touchz
Usage: hdfs dfs -touchz URI [URI ...]
Create a file of zero length.
Example:
· hdfs dfs -touchz pathname
Exit Code: Returns 0 on success and -1 on error.
大数据的未来
关注
关注
点赞
23
收藏
打赏
评论
hadoop hdfs dfs 命令讲解
hdfs dfs命令appendToFileUsage: hdfs dfs -appendToFile  ... 追加一个或者多个文件到hdfs制定文件中.也可以从命令行读取输入.· hdfs dfs -appendToFile localfile /user/hadoop/hadoopfile· hdfs dfs -appendToFile localfile1 localf
复制链接
扫一扫
专栏目录
HDFS基本命令
俺叫赵小邪的博客
11-14
7万+
欢迎使用Markdown编辑器写博客本Markdown编辑器使用StackEdit修改而来,用它写博客,将会带来全新的体验哦:
Markdown和扩展Markdown简洁的语法
代码块高亮
图片链接和图片上传
LaTex数学公式
UML序列图和流程图
离线写博客
导入导出Markdown文件
丰富的快捷键
快捷键
加粗 Ctrl + B
斜体 Ctrl + I
引用 Ctrl
大数据-HDFS的Shell操作
最新发布
m0_62492032的博客
12-13
204
将/ied01/book.txt复制到/ied02目录,改名为read.txt,执行命令:hdfs dfs -cp /ied01/book.txt /ied02/read.txt。将/ied01/exam.txt更名为/ied/test.txt,执行命令:hdfs dfs -mv /ied01/exam.txt /ied01/test.txt。创建待上传文件存放的目录/export/data/logs/toupload,执行命令:mkdir -p /export/data/logs/toupload。
评论 1
您还未登录,请先
登录
后发表或查看评论
Hadoop----hdfs dfs常用命令的使用
WQY992的博客
04-10
4万+
用法
ls
Usage: hdfs dfs -ls [-R] < args>
HDFS dfs 操作命令
qq_40947195的博客
11-06
226
HDFS dfs 操作命令
hdfs dfs -put_通过HDFS中的`hdfs dfs -put`命令行上传文件时,如何设置一个文件的复制因子?...
cuma2369的博客
07-28
1万+
hdfs dfs -putWhen uploading a file by the hdfs dfs -put command line in HDFS, how to set a replication factor instead of the global one for that file? 通过HDFS中的hdfs dfs -put命令行上传文件时,如何为该文件设置复制因子而不是全局因子...
HDFS常用命令hdfs dfs
梦忆故城的博客
08-08
5814
1.hdfs dfs、hadoop fs、hadoop dfs三个命令的区别
在介绍命令之前,首先要知道hdfs dfs、hadoop fs、hadoop dfs三个命令的区别。
hadoop fs:通用的文件系统命令,针对任何系统,比如本地文件、HDFS文件、HFTP文件、S3文件系统等。
hadoop dfs:特定针对HDFS的文件系统的相关操作,但是...
eclipse远程连接hadoop_Hadoop之HDFS基本操作实验
weixin_39838829的博客
11-29
197
点击上方蓝色字关注我们!基础实验Hadoop是一款开源的大数据通用处理平台,其提供了分布式存储和分布式离线计算。Hadoop由HDFS、YARN、MapReduce组成。Hadoop分布式文件系统(HDFS)是一种分布式文件系统(Distributed File System)。HDFS具有高度容错性,适合部署在廉价的机器上。HDFS能提供高吞吐量的数据访问,非常适合大规模数据集上的应用...
HDFS命令:hdfs dfs
Yummy的博客
07-24
2814
操作HDFS命令: hdfs dfs
0.帮助命令
hdfs dfs -help
hdfs dfs -help put
1.建立一个账号目录 -mkdir -p
hdfs dfs -mkdir -p /user/hadoop03
2.在当前账号下新建一个文件夹
hdfs dfs -mkdir input
3.上传本地文件到HDFS -put
hdfs dfs -put 本地文件目录 HDFS的文件目录
hdfs dfs -put ~/*.txt input
4.查看HDFS文件中的文件和目...
HDFS教程(02)- HDFS命令汇总
阿甘兄
02-23
708
文章目录01 引言02 HDFS安装03 HDFS命令汇总3.1 新增操作3.1.1 创建文件夹(mkdir命令)3.1.2 文件上传(put命令)3.1.3 文件复制(cp命令)3.1.4 移动文件(mv命令)3.1.5 创建空文件(touchz命令)3.2 删除操作3.2.1 删除文件夹(rmdir命令)3.2.2 删除文件(rm命令)3.2.3 清空回收站(expunge命令)3.3 查看操作3.3.1 获取文件(get 命令)3.3.2 查看文件(ls、du、df、cat、tail 命令)3.3.3
hadoop hdfs dfs 命令讲解
suchy
01-09
5293
hdfs dfs命令
appendToFile
Usage: hdfs dfs -appendToFile <localsrc> ... <dst>
追加一个或者多个文件到hdfs制定文件中.也可以从命令行读取输入.
· hdfs dfs -appendToFile localfile /user/hadoop/hadoopfile
· hdfs dfs -appen...
hdfs dfs -du -h 输出三列数据的含义
KNIFE_PAN的专栏
03-12
3万+
命令 hdfs dfs -du -h /data/
结果 102.3 M 307.0 M /data/
第一列标示该目录下总文件大小
第二列标示该目录下所有文件在集群上的总存储大小和你的副本数相关,我的副本数是3 ,所以
第二列的是第一列的三倍 (第二列内容=文件大小*副本数)
第三列标示你查询的目录
hdfs常用操作
BXiron的博客
11-21
840
查看文件常用命令
命令格式
1.hdfs dfs -ls path 查看文件列表
2.hdfs dfs -lsr path 递归查看文件列表
3.hdfs dfs -du path 查看path下的磁盘情况,单位字节
使用示例
1.hdfs dfs -ls / 查看当前目录
2.hdfs dfs - lsr / 递归查看当前目录
创建文件夹
命令格式
hdfs dfs -mkdir pa
HDFS的基础详解
weixin_43952215的博客
09-10
177
概念: HDFS是Hadoop Distribute File System 的简称(Hadoop 分布式文件系统), 是hadoop核心组件之一, 作为最底层的分布式存储服务而存在.分布式文件系统解决的问题就是大数据存储问题.
设计目标
1. 硬件故障是常态: 故障检测和自动快速回复是HDFS的核心架构目标
2. HDFS主要是以流式读取数据, 更注重数据访问的高吞吐量.被设计成批量的处理
3. HDFS支持大文件
4. HDFS对文件的要求是一次写入多次读取
HDFS重要特性
首先是一..
cp/rm/mv等命令强制覆盖操作方式实现
热门推荐
feng98ren的专栏
04-09
5万+
cp/rm/mv等命令强制覆盖操作方式实现转载:http://www.92csz.com/14/1240.html习惯了FreeBSD里的cp/rm/mv等命令遇到同名文件时直接覆盖操作,而在linux中(不一定是全部,可能是我使用的几种),使用cp/rm/mv命令覆盖文件操作时总是提示输入yes或no,很是麻烦,一两个的也就算了,没什么,但有时会遇到大量文件的复制时,就麻烦了,要一个一个输入ye...
hdfs指令中count和ls的区别
liaoyanyunde的博客
01-07
3602
hadoop fs -count &amp;lt; hdfs path &amp;gt;
统计hdfs对应路径下的目录个数,文件个数,文件总计大小
count的统计,会向下递归统计
count目录数的统计,不仅会向下递归统计,还会包括根目录的
[root@brms01 ~]# hadoop fs -mkdir -p lyy/1
[root@brms01 ~]# hadoop fs -mkdir -p lyy/2
...
【hdfs 常用命令】数据put到hdfs
赖德发的博客
05-23
1万+
# 下载
hdfs dfs -getmerge /user/hive/warehouse/tempon.db/tl_text_center /home/admin/t1_subject.txt
# 建外部表
drop table tempon.text_anti_brush_info
create external table if not exists tempon.text_an...
Hadoop -- hdfs dfs命令详解
小小良
07-31
1188
hdfsdfs命令
1、appendToFile
## 追加一个或者多个文件到hdfs制定文件中.也可以从命令行读取输入.
Usage:hdfsdfs-appendToFile<localsrc>...<dst>
·hdfsdfs-appendToFilelocalfile/user/hadoop/hadoopfile
·hdfsdfs...
Hadoop hdfs dfs命令 最常见经常使用的命令 入门推荐
是个好男人的博客
11-23
4204
1.常用命令
下列的hdfs命令,都是在实际工作中经常会用到的,如果要看全部的命令可以直接使用hdfs dfs,会显示所有的命令。使用hdfs dfs -help能够查看每个命令的使用方法
(1)help hdfs命令帮助
hdfs dfs -help
(2)ls 查看hdfs目录下内容
命令格式:
hdfs dfs -ls [文件目录]
hdfs dfs -ls /
结果:
drwxr-xr-x - hdfs hdfs 0 2020-11-04 11:36 /HiBenc...
HDFS操作及命令介绍
HaiJaine的博客
10-03
3277
HDFS常用命令
<path> … hdfs中一个或多个路径,如果未指定,默认为/user/<currentUser>
<localsrc> … 本地文件系统的的一个或多个路径
<dst> hdfs中目标路径
查看帮助
命令:hdfs dfs -help [cmd ...]
参数:
cmd... 需要查询的一个或多个命令
创建目录
命令:hdfs dfs -mkdir [-p] <path> ...
参数:
-p 进行递归创建
创建
hadoop hdfs dfs基本操作
archer的技术故事
04-09
3万+
hadoop hdfs dfs基本操作
本文主要参考:
http://hadoop.apache.org/docs/r2.6.5/hadoop-project-dist/hadoop-common/FileSystemShell.html
根据上面官方文档的提示我们能够知道可以通过shell的方式访问hdfs中的数据,对数据进行操作。那么首先让我们看一下hdfs的版本,使用命令h
Hadoop常用命令总结
杨先森的专栏
04-07
779
1、启动hadoop所有进程
start-all.sh等价于start-dfs.sh + start-yarn.sh
但是一般不推荐使用start-all.sh(因为开源框架中内部命令启动有很多问题)。
2、单进程启动。
sbin/start-dfs.sh
---------------
sbin/hadoop-daemons.sh --config .. --hostname ...
“相关推荐”对你有帮助么?
非常没帮助
没帮助
一般
有帮助
非常有帮助
提交
©️2022 CSDN
皮肤主题:大白
设计师:CSDN官方博客
返回首页
大数据的未来
CSDN认证博客专家
CSDN认证企业博客
码龄10年
暂无认证
168
原创
10万+
周排名
38万+
总排名
39万+
访问
等级
4614
积分
87
粉丝
36
获赞
62
评论
100
收藏
私信
关注
热门文章
hive 创建表的三种方式
58634
hadoop hdfs dfs 命令讲解
52233
加载数据到hive中的方式
16468
linux运维之路
12166
Spark RDD 笛卡尔积
10113
分类专栏
大数据
25篇
spark学习之路
19篇
spring
8篇
javascript
6篇
storm
15篇
springmvc
5篇
kafka
3篇
zookeeper
1篇
hive
12篇
开源中国
1篇
hbase
数据结构
10篇
多线程
6篇
Java基础
22篇
java io
9篇
推荐系统
2篇
面试
mybatis
1篇
easyUI
1篇
ftp
2篇
Linux 运维
2篇
cdh集群
3篇
nginx
2篇
redis
3篇
oracle
最新评论
hadoop 最大值最小值
不会编程的女孩:
我把这个代码运行不出来 可以请教一下是出什么问题了吗
Spark RDD 笛卡尔积
Deep Learning小舟:
很不错的文章,明白了,谢谢作者!
插入排序Java代码实现
coyleKK:
确定这样可以?
加载数据到hive中的方式
weixin_41799335:
楼主是来提问题的还是来解决问题的。。。。
文本向量表示及TFIDF词汇权值
进击的汪sir:
不知道idf是怎么计算的呢,我用的你的公式计算出来是一个负数,就是ln(log(3/2)),还望赐教
您愿意向朋友推荐“博客详情页”吗?
强烈不推荐
不推荐
一般般
推荐
强烈推荐
提交
最新文章
linux 下面安装oracle
ftp安装
linux运维之路
2016年31篇
2015年122篇
2014年26篇
目录
目录
分类专栏
大数据
25篇
spark学习之路
19篇
spring
8篇
javascript
6篇
storm
15篇
springmvc
5篇
kafka
3篇
zookeeper
1篇
hive
12篇
开源中国
1篇
hbase
数据结构
10篇
多线程
6篇
Java基础
22篇
java io
9篇
推荐系统
2篇
面试
mybatis
1篇
easyUI
1篇
ftp
2篇
Linux 运维
2篇
cdh集群
3篇
nginx
2篇
redis
3篇
oracle
目录
评论 1
被折叠的 条评论
为什么被折叠?
到【灌水乐园】发言
查看更多评论
打赏作者
大数据的未来
你的鼓励将是我创作的最大动力
¥2
¥4
¥6
¥10
¥20
输入1-500的整数
余额支付
(余额:-- )
扫码支付
扫码支付:¥2
获取中
扫码支付
您的余额不足,请更换扫码支付或充值
打赏作者
实付元
使用余额支付
点击重新获取
扫码支付
钱包余额
抵扣说明:
1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。 2.余额无法直接购买下载,可以购买VIP、C币套餐、付费专栏及课程。
余额充值