一、Spark大数据基础 实验1 Linux系统的安装和常用命令

目录

    • 安装教程
    • 使用Linux系统的常用命令
      • 1.切换到目录 /usr/bin
      • 2.查看目录/usr/local下所有的文件
      • 3.进入/usr目录,创建一个名为test的目录,并查看有多少目录存在
      • 4.在/usr下新建目录test1,再复制这个目录内容到/tmp
      • 5.将上面的/tmp/test1目录重命名为test2
      • 6.在/tmp/test2目录下新建word.txt文件并输入一些字符串,保存后退出
      • 7.查看word.txt文件内容
      • 8.将word.txt文件所有者改为root账号,并查看属性
      • 9.找出/tmp目录下文件名为test2的文件
      • 10.在/目录下新建文件夹test,然后在/目录下打包成test.tar.gz
      • 11.将test.tar.gz解压缩到/tmp目录
    • FileZilla传文件

一、Spark大数据基础 实验1 Linux系统的安装和常用命令

安装教程


使用Linux系统的常用命令


1.切换到目录 /usr/bin

cd /usr/bin

2.查看目录/usr/local下所有的文件

cd  ..
cd local
ll

3.进入/usr目录,创建一个名为test的目录,并查看有多少目录存在

cd ..
sudo mkdir test (输入密码)
ll

4.在/usr下新建目录test1,再复制这个目录内容到/tmp

sudo mkdir test1
cp -r test1 /tmp

5.将上面的/tmp/test1目录重命名为test2

mv /tmp/test1 /tmp/test2

6.在/tmp/test2目录下新建word.txt文件并输入一些字符串,保存后退出

sudo apt install vim
cd test2
vim word.txt  (i,input,esc,:,wq)

7.查看word.txt文件内容

cat word.txt
Hello World
Hello Ubuntu
Hello VMware
Hi Python
Hi Spark
Hi PySpark
Good Afternoon Hadoop
My name is LittleFish

8.将word.txt文件所有者改为root账号,并查看属性

sudo chown -R root /tmp/test2/word.txt
ls -l /tmp/test2/word.txt

9.找出/tmp目录下文件名为test2的文件

sudo find /tmp -name test2
/tmp/test2

10.在/目录下新建文件夹test,然后在/目录下打包成test.tar.gz

cd /
sudo mkdir test
sudo tar czvf test.tar.gz test
ll

11.将test.tar.gz解压缩到/tmp目录

tar -zxvf test.tar.gz -C /tmp

FileZilla传文件

参考Spark伪分布式搭建大全博客,需要在Ubuntu下载vsftpd,设置好后即可在Windows传输文件给Ubuntu


参考书:林子雨《Spark编程基础》

版权声明:如无特殊标注,文章均来自网络,本站编辑整理,转载时请以链接形式注明文章出处,请自行分辨。

本文链接:https://www.shbk5.com/dnsj/72221.html