ceph 快速搭建步骤 VM虚拟机+Ubuntu14.04

    xiaoxiao2021-11-19  83

    ceph中文网址快速安装地址    http://docs.ceph.org.cn/start/ 三台主机 master(192.168.2.181) 管理节点和客户端 node1(192.168.2.182)  mon(镜像服务)和mds(元数据服务) node2(192.168.2.183)  osd(存储服务) 包括/dev/sdb1 和 /dev/sdc1两个硬盘存储 预检  Ubuntu14.04(VM虚拟机 2G 20G硬盘) 创建统一用户名和密码        user  1qaz!QAZ 让用户可以无密码使用sudo命令      sudo vi /etc/sudoers       把里面的%sudo行改成 %sudo    ALL=(ALL:ALL) NOPASSWD:ALL 安装ssh(三台机子分别执行)       sudo apt-get install openssh-server 安装ntp(三台机子分别执行)       sudo apt-get install ntp 节点之间分别无密码 ssh公钥登录            每个节点执行修改hostname操作,执行完需要重启虚拟机         master执行 hostnamectl set-hostname master         node1执行 hostnamectl set-hostname node1         node2执行 hostnamectl set-hostname node2      在/etc/hosts 里增加 (三台机子分别执行)       192.168.2.181 master          192.168.2.182 node1          192.168.2.183 node2      在/home/user/.ssh里增加config文件 (三台机子分别执行)      cd /home/user/.ssh      vi config                 Host node1                Hostname node1                User user          Host node2                Hostname node2                User user          Host master                Hostname master                User user      创建公钥 (三台机子分别执行)                    ssh-keygen      向个节点拷贝公钥 (三台机子分别执行)          ssh-copy-id user@master          ssh-copy-id user@node2          ssh-copy-id user@node3 关闭防火墙 (三台机子分别执行)       sudo ufw disable        添加 release key :(master下执行)     wget -q -O- 'https://download.ceph.com/keys/release.asc' | sudo apt-key add - 添加Ceph软件包源,用Ceph稳定版(如 cuttlefish 、 dumpling 、 emperor 、 firefly 等等)替换掉 {ceph-stable-release} 。例如:     echo deb http://download.ceph.com/debian-kraken/ $(lsb_release -sc) main | sudo tee /etc/apt/sources.list.d/ceph.list 更新你的仓库,并安装 ceph-deploy :     sudo apt-get install ceph-deploy 创建集群 各节点分别执行 sudo apt-get install ceph 在node2创建硬盘 /dev/sdb1 /dev/sdc1(过程略) 在master下执行     cd ~     mkdir my-cluster     cd my-cluster     ceph-deploy new node1     osd pool default size = 2     ceph-deploy install admin-node node1 node2 node3     ceph-deploy mon create-initial     ceph-deploy osd prepare node2:/dev/sdb1 node2:/dev/sdc1     ceph-deploy osd activate node2:/dev/sdb1 node2:/dev/sdc1     sudo chmod +r /etc/ceph/ceph.client.admin.keyring     ceph health     ceph -w    创建pool       ceph osd pool create cephfs_data <pg_num>            例如:ceph osd pool create cephfs_data 128       ceph osd pool create cephfs_metadata <pg_num>            例如:ceph osd pool create cephfs_metadata 128       ceph fs new <fs_name> cephfs_metadata cephfs_data            例如:ceph fs new filesystem cephfs_metadata cephfs_data 文件操作命令 上传  rados put zabbix_client_install.tar.gz ./zabbix_client_install.tar.gz --pool=cephfs_data 查看文件  rados -p cephfs_data ls 定位对象  ceph osd map cephfs_data {object-name} 下载  rados get {object-name} {file-path} --pool= cephfs_data

    删除 rados rm {object-name} --pool=cephfs_data

    转载请表明出处。

    转载请注明原文地址: https://ju.6miu.com/read-678350.html

    最新回复(0)