linux学习笔记———《常用命令》

时间:2023-02-25 09:42:04

实现从服务器A机192.168.18.137 SSH直接登入到B机192.168.18.120上

1、A主机生成公、私钥证书:

【root@A ~】#ssh-keygen -t rsa   #生成公、秘钥证书,一直回车
【root@A .ssh】# cd ~/.ssh #进入.ssh

2、将公钥id_rsa.pub传到B机上

【root@B~】 mkdir .ssh

【root@A .ssh】scp id_rsa.pub 192.168.18.120:$HOME/.ssh

#ip为B机IP,发送时需要输入B机登入密码

3、登入B机重命名公钥

【root@B~】 cd .ssh
【root@B .ssh】#mv id_rsa.pub authorized_keys(必须要这个名字)

4、测试执行

【root@A ~】#ssh 192.168.18.120    #登入B机

登入成功。

【root@B~】#ifconfig    #验证是不是B机IP:192.168.18.120

5、ssh连接安全

/etc/ssh/sshd_config(服务器端配置文件)
/etc/ssh/ssh_config(客户端配置文件)

修改端口(默认22端口)

port端口(2个配置文件的端口修改要一样)

只使用密钥(取消密码验证):

修改/etc/ssh/sshd_config中的passwordAuthentication后面的yes改为no

只允许某个用户登录:

在/etc/ssh/sshd_config中加入:AllowUsers “用户名” 

用ssh -p 端口 IP登录

登陆hadoop@60.29.255.205跳板机
ssh hadoop@60.29.255.205
登陆hd1 [hadoop@CONTROL_TJHY_14-16 ~]$ ssh hd1
传输直接通过scp,先到跳板机,然后scp到hd1你的目录就可以 scp filename hadoop@60.29.255.205:~/lichengjin/ [hadoop@CONTROL_TJHY_14-16 ~]$  scpfilename hadoop@hd1:~/lichengjin/
从hd1上往本地传数据,先传到跳板机,然后再传到本地 scp -r hadoop@hd1:~/filename .
传目录要加上 -r, .表示当前目录 scp -r hadoop@60.29.255.205:~/filename .
退出当前连接: exit