linux(二) 基本使用命令

时间:2023-03-09 20:05:01
linux(二)  基本使用命令

一、常用命令归纳分类

linux(二)  基本使用命令

课外网站  http://man.linuxde.net/
               http://www.jb51.net/linux/
               https://jaywcjlove.github.io/linux-command/

如果想查看命令的使用手册可以使用  man, 例如man clear

二、常用命令详解

1、磁盘管理

linux(二)  基本使用命令

linux(二)  基本使用命令

2、文件管理

linux(二)  基本使用命令

linux(二)  基本使用命令

linux(二)  基本使用命令

linux(二)  基本使用命令

linux(二)  基本使用命令

linux(二)  基本使用命令

其他命令:

linux(二)  基本使用命令

三、vi 文本编辑器

VI,是 linux 操作系统中最常用的文本编辑器, VIM 是它的增强版本, VI 有三种基本工作模式,分别是:命令模式 ( command mode)、插入模式 ( insert mode)和底行模式 ( last line mode) 
   linux(二)  基本使用命令

1、最基本用法

vi huangbo.txt

(1)首先会进入“一般模式”,此模式只接受各种命令快捷键,不能编辑文件内容

(2)按 i 键,就会从一般模式进入编辑模式,此模式下,敲入的都是文件内容

(3)编辑完成之后,按 Esc 键退出编辑模式,回到一般模式;
      (4)再按:,进入“底行命令模式”,输入 wq 命令,回车即可保存退出

移动光标:使用上下左右键移动光标  也可以使用hjkl,依次是向前下上右移动

2、常用快捷键

linux(二)  基本使用命令

3、查找并替换(在底行命令模式中输入)

linux(二)  基本使用命令

4、替换操作

linux(二)  基本使用命令

补充:VIM 详解: http://linux.ctolib.com/cheat-sheets/view/Vim-command.html

四、压缩打包

1、gzip 压缩 :   gzip ma.txt

2、gzip解压缩  :    gzip -d ma.txt.gz

3、bzip2 压缩 :    bzip2 ma.dat
      4、bzip2 解压缩     bzip2 -d ma.dat.bz2  或者 bunzip2 ma.dat.bz2
      5、打包    tar -cvf ma.txt.tar ma.txt    (ma.txt.tar是打包生成的包名)
          追加打包    tar -rvf ma.txt.tar ma.dat  表示将 ma.dat 文件追加到 ma.txt.tar 当中
      6、解包   tar -xvf ma.txt.tar
      7、打包并压缩    tar -zcvf ma.tar.gz /root/ma/
      8、解包并解压缩   tar -zxvf ma.tar.gz
                             tar -zxvf ma.tar.gz  -C /home/hadoop/liuwei  解压到指定目录
      9、查看压缩包内容  tar -ztvf ma.tar.gz
      10、打包并压缩成bz2     tar -jcvf a.tar.bz2
      11、解压bz2               tar -jxvf a.tar.bz2
      相关参数的解释:
linux(二)  基本使用命令
五、用户和组

1、组操作

添加一个叫 bigdata 的组      groupadd bigdata
          查看系统当前有那些组          cat /etc/group
         将 hadoop 添加到 bigdata 组中         usermod -g bigdata spark  或者   gpasswd -a spark bigdata
         将 spark 用户从 bigdata 组删除        gpasswd -d spark bigdata
          将 bigdata 组名修改为 bigspark       groupmod -n bigspark bigdata
          删除组                                       groupdel bigdata
    
     2、用户操作

添加用户

useradd spark
               usermod -g bigdata spark     设置组

usermod -c "mylove spark" spark     添加备注信息

一步完成 useradd -g bigdata -c "mylove" spark

设置密码

password spark

修改用户

修改spark登录名   usermod -l spark storm

将spark 添加到bigdata 和root组  usermod -G root,bigdata spark

查看spark的组信息  groups spark

删除用户     userdel -r spark  加一个-r 代表把用户和用户的主目录都删除

3、为用户配置 sudoer 权限

用 root 编辑 vi /etc/sudoers

在文件的如下位置,为 hadoop 添加一行即可

root ALL=(ALL) ALL
          hadoop ALL=(ALL) ALL
          spark ALL=(ALL) ALL

然后, hadoop 用户就可以用 sudo 来执行系统级别的指令

六、文件权限

1、Linux文件权限解读

linux(二)  基本使用命令

2、修改文件权限

linux(二)  基本使用命令

3、修改文件所有权

linux(二)  基本使用命令

七、修改系统时间

1、查看系统当前时间 date -R

2、CentOS 中时区是以文件形式存在,当前时区文件位于  /etc/localtime
          其他时区文件则位于  /usr/share/zoneinfo
          其中中国时区使用  /usr/share/zoneinfo/Asia/Shanghai
         则,更改时区的话,直接使用如下命令就 OK   cp   /usr/share/zoneinfo/Asia/Shanghai   /etc/localtime

3、修改系统时间使用 date -s

例如 date -s 12/25/2016                     date -s 19:57:30            date -s "2016-12-23  19:57:30"

4、每次手动修改系统时间 比较麻烦,可以 同步网络时间    ntpdate  time.nist.gov

可以使用定时器,每隔一个时间段就执行一次

crontab -e   然后往里面加入内容 */10 * * * * ntpdate  time.nist.gov 每隔10分钟 在  time.nist.gov时间服务器同步一次 ,也可以使用时间服务器 time.nuri.net    ,保存退出

八、修改主机名

1、查看主机名 使用 hostname

2、暂时性修改主机名使用hostname 例如 hostname hadoop02 ; 重新登录才会生效,再 下一次登录就会失效,因为是暂时性的

3、永久性修改主机名  vi  /etc/sysconfig/network ;然后修改一下 hostname =主机名,保存退出

九、Linux系统启动级别管理

1、查看系统运行的级别 :runlevel    (默认情况下是5)

2、修改系统运行的级别:vi  /etc/inittab

linux(二)  基本使用命令

十、切换用户

切换用户的命令:su   例切换到root,  su root

十一、Linux 开关机、重启

开机:开机键
         关机: shutdown, halt, init 0, poweroff
         重启: reboot, init 6
    Shutdown 命令详解:
         shutdown -h now ## 立刻关机
         shutdown -h +10 ## 10 分钟以后关机
         shutdown -h 12:00:00 ##12 点整的时候关机