blog.monophile.net

コンピュータのこととかのメモ。

山本 一彰 | Takaaki Yamamoto

東京工業大学において計算機科学と応用数学を学び、 情報科学芸術大学院大学[IAMAS]においてメディア表現を専攻し修了。 2015年にコンビネータ論理を基に計算完備な計算手法 "論理珠算"を開発し、 それを含む体系である"算道"を構成した。 その成果により、 第19回 文化庁メディア芸術祭 アート部門 新人賞 (文部科学大臣賞) を2016年に受賞。 現在はインフラエンジニアとして生計をたててている。

技術

各種システムの設計/構築/運用を承ります。

Configuration Management Ansible, Terraform, cloud-init
Cloud Platform AWS, Azure, GCP, Openstack
Openstack Keystone, Glance, Cinder(Ceph), Neutron(VLAN), Nova(QEMU), Horizon
Virtualization QEMU+KVM, LXD/LXC, Docker
OS Ubuntu, Debian GNU/Linux, CentOS, ...
Storage Ceph, GlusterFS, ZFS, btrfs, ...
Networks Tunnel(IPSec, L2TP, VXLAN, GRE), WirelessAP, ...
DB MySQL, MariaDB(Galera Cluster), MongoDB
Mail postfix, dovecot
WebApps WordPress, GitLab, MatterMost, Redmine, RainLoop, ...
Monitoring Nagios, Munin
Misc certbot, dnsmasq, ...

技術(習得中)

Orchestration Kubernetes
Openstack swift, manila, trove
OS CoreOS(Container Linux), Vyatta(VyOS), ...
Networks IPv6, BGP(quagga, calico), flannel, fan, ...
DB/KVS Redis, etcd
Monitoring Prometheus, Zabbix
DNS CoreDNS, PowerDNS
Misc MAAS, Blockchain

投稿

LVMでディスクの拡張と追加をやってみる

概要

LVMのディスク追加と領域拡張の作業があったので、そのための検証のメモ。 環境はUbuntu18.04。 /dev/sda がLVM用のディスクで、/dev/sdbがブートディスク。

ツールのインストール

$ sudo apt install lvm2 thin-provisioning-tools

パーティション /dev/sda1 作成

$ sudo parted -s /dev/sda mklabel gpt
$ sudo parted -s /dev/sda mkpart "pv0" "" 0% 20GiB
$ sudo parted -s /dev/sda set 1 lvm on
$ sudo parted -s /dev/sda p
Model: ATA SanDisk SDSSDH32 (scsi)
Disk /dev/sda: 250GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system  Name  Flags
 1      1049kB  21.5GB  21.5GB               pv0   lvm

PV /dev/sda1 の作成

$ sudo pvcreate /dev/sda1
  Physical volume "/dev/sda1" successfully created.
$ sudo pvdisplay
  "/dev/sda1" is a new physical volume of "<20.00 GiB"
  --- NEW Physical volume ---
  PV Name               /dev/sda1
  VG Name
  PV Size               <20.00 GiB
  Allocatable           NO
  PE Size               0
  Total PE              0
  Free PE               0
  Allocated PE          0
  PV UUID               wLhaUz-JLey-L2hO-SgtX-lm8y-sioj-hEXELy

VG /dev/vg00 の作成

$ sudo vgcreate vg00 /dev/sda1
  Volume group "vg00" successfully created
$ sudo vgdisplay
  --- Volume group ---
  VG Name               vg00
  System ID
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  1
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                0
  Open LV               0
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               <20.00 GiB
  PE Size               4.00 MiB
  Total PE              5119
  Alloc PE / Size       0 / 0
  Free  PE / Size       5119 / <20.00 GiB
  VG UUID               t34tOI-eXcM-RL2C-FsiG-jk0n-Lxw2-pyXuSb

LV /dev/vg00/vol00 の作成

今回はシンプロビジョニングをしたかったので、 vg00/tp というシンプールをまず作成。

$ lvcreate --thinpool tp -L 10G vg00
  Using default stripesize 64.00 KiB.
  Thin pool volume with chunk size 64.00 KiB can address at most 15.81 TiB of data.
  Logical volume "tp" created.

次にvol00を作成する。 シンプロビジョニングなので、物理パーティション20GiBよりも大きく100GiBで作成した。

$ sudo lvcreate --thin -V 100G -n vol00 vg00/tp
  Using default stripesize 64.00 KiB.
  WARNING: Sum of all thin volume sizes (100.00 GiB) exceeds the size of thin pool vg00/tp and the size of whole volume group (<20.00 GiB).
  WARNING: You have not turned on protection against thin pools running out of space.
  WARNING: Set activation/thin_pool_autoextend_threshold below 100 to trigger automatic extension of thin pools before they get full.
  Logical volume "vol00" created.
$ sudo lvs
  LV    VG   Attr       LSize   Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  tp    vg00 twi-aotz--  10.00g             0.00   0.65
  vol00 vg00 Vwi-a-tz-- 100.00g tp          0.00

lsblkをすると↓のようになった。

$ lsblk /dev/sda
NAME                MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda                   8:0    0 232.9G  0 disk
└─sda1                8:1    0    20G  0 part
  ├─vg00-tp_tmeta   253:0    0    12M  0 lvm
  │ └─vg00-tp-tpool 253:2    0    10G  0 lvm
  │   ├─vg00-tp     253:3    0    10G  0 lvm
  │   └─vg00-vol00  253:4    0   100G  0 lvm
  └─vg00-tp_tdata   253:1    0    10G  0 lvm
    └─vg00-tp-tpool 253:2    0    10G  0 lvm
      ├─vg00-tp     253:3    0    10G  0 lvm
      └─vg00-vol00  253:4    0   100G  0 lvm

LV /dev/vg00/vol00 をXFSで初期化

XFSで初期化してみた。 特にXFSである理由はなくて、手順も通常のディスクと同様。

$ sudo mkfs.xfs /dev/vg00/vol00
meta-data=/dev/vg00/vol00        isize=512    agcount=16, agsize=1638384 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=1, sparse=0, rmapbt=0, reflink=0
data     =                       bsize=4096   blocks=26214144, imaxpct=25
         =                       sunit=16     swidth=16 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal log           bsize=4096   blocks=12800, version=2
         =                       sectsz=512   sunit=16 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0

マウントも普通

$ sudo mkdir -p /mnt/vg00/vol00
$ sudo mount -t xfs /dev/vg00/vol00 /mnt/vg00/vol00

パーティション /dev/sda1 をリサイズ

/dev/sda1を 20GiB -> 40GiB にリサイズしてみる。

$ sudo parted /dev/sda -s resizepart 1 40GiB
$ sudo parted /dev/sda -s p
Model: ATA SanDisk SDSSDH32 (scsi)
Disk /dev/sda: 250GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system  Name  Flags
 1      1049kB  42.9GB  42.9GB               pv0   lvm

PV /dev/sda1 をリサイズ

$ sudo pvresize /dev/sda1
  Physical volume "/dev/sda1" changed
  1 physical volume(s) resized / 0 physical volume(s) not resized
$ sudo pvdisplay
  --- Physical volume ---
  PV Name               /dev/sda1
  VG Name               vg00
  PV Size               <40.00 GiB / not usable 2.00 MiB
  Allocatable           yes
  PE Size               4.00 MiB
  Total PE              10239
  Free PE               7673
  Allocated PE          2566
  PV UUID               os4006-QsYX-O5wL-IsJo-DWDM-7dyr-EiPbBw

LV シンプール vg00/tp をリサイズ

$ sudo lvresize -L +20G vg00/tp
  WARNING: Sum of all thin volume sizes (100.00 GiB) exceeds the size of thin pools and the size of whole volume group (<40.00 GiB).
  WARNING: You have not turned on protection against thin pools running out of space.
  WARNING: Set activation/thin_pool_autoextend_threshold below 100 to trigger automatic extension of thin pools before they get full.
  Size of logical volume vg00/tp_tdata changed from 10.00 GiB (2560 extents) to 30.00 GiB (7680 extents).
  Logical volume vg00/tp_tdata successfully resized.
$ lvdisplay
  --- Logical volume ---
  LV Name                tp
  VG Name                vg00
  LV UUID                gJkkUJ-uO6E-st69-ElcX-UR6j-QI1b-ivNQdx
  LV Write Access        read/write
  LV Creation host, time xhost, 2018-05-21 22:58:49 +0900
  LV Pool metadata       tp_tmeta
  LV Pool data           tp_tdata
  LV Status              available
  # open                 2
  LV Size                30.00 GiB
  Allocated pool data    0.17%
  Allocated metadata     1.50%
  Current LE             7680
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:2

  --- Logical volume ---
  LV Path                /dev/vg00/vol00
  LV Name                vol00
  VG Name                vg00
  LV UUID                dcMtdS-FlWr-bfxP-sTPW-PK6Q-lctF-VdFfBd
  LV Write Access        read/write
  LV Creation host, time xhost, 2018-05-21 22:59:21 +0900
  LV Pool name           tp
  LV Status              available
  # open                 0
  LV Size                100.00 GiB
  Mapped size            0.05%
  Current LE             25600
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:4

LV /dev/vg00/vol00 のファイルシステムをリサイズ

$ sudo xfs_growfs /dev/vg00/vol00
meta-data=/dev/mapper/vg00-vol00 isize=512    agcount=16, agsize=1638384 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=1 spinodes=0 rmapbt=0
         =                       reflink=0
data     =                       bsize=4096   blocks=26214144, imaxpct=25
         =                       sunit=16     swidth=16 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal               bsize=4096   blocks=12800, version=2
         =                       sectsz=512   sunit=16 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
data blocks changed from 26214144 to 26214400

パーティション /dev/sda2 の追加

sudo parted -a optimal -s /dev/sda unit s p
Model: ATA SanDisk SDSSDH32 (scsi)
Disk /dev/sda: 488397168s
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number  Start  End        Size       File system  Name  Flags
 1      2048s  83886080s  83884033s               pv0   lvm
$ sudo parted -s /dev/sda mkpart "pv1" "" 83886081s 60GiB
$ sudo parted -s /dev/sda set 2 lvm on
$ sudo parted -s /dev/sda p
Model: ATA SanDisk SDSSDH32 (scsi)
Disk /dev/sda: 250GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system  Name  Flags
 1      1049kB  42.9GB  42.9GB               pv0   lvm
 2      42.9GB  64.4GB  21.5GB               pv1   lvm

PV /dev/sda2 を追加

$ pvcreate /dev/sda2
  Physical volume "/dev/sda2" successfully created.
$ sudo pvdisplay
  --- Physical volume ---
  PV Name               /dev/sda1
  VG Name               vg00
  PV Size               <40.00 GiB / not usable 2.00 MiB
  Allocatable           yes
  PE Size               4.00 MiB
  Total PE              10239
  Free PE               2553
  Allocated PE          7686
  PV UUID               os4006-QsYX-O5wL-IsJo-DWDM-7dyr-EiPbBw

  "/dev/sda2" is a new physical volume of "<20.00 GiB"
  --- NEW Physical volume ---
  PV Name               /dev/sda2
  VG Name
  PV Size               <20.00 GiB
  Allocatable           NO
  PE Size               0
  Total PE              0
  Free PE               0
  Allocated PE          0
  PV UUID               xOAb5N-WZxA-y0Uk-mdJY-2e2u-Qgb8-6y0W9r

VG vg00に PV /dev/sda2 を追加

$ sudo vgextend vg00 /dev/sda2
  Volume group "vg00" successfully extended
$ sudo vgdisplay
  --- Volume group ---
  VG Name               vg00
  System ID
  Format                lvm2
  Metadata Areas        2
  Metadata Sequence No  7
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                1
  Open LV               1
  Max PV                0
  Cur PV                2
  Act PV                2
  VG Size               59.99 GiB
  PE Size               4.00 MiB
  Total PE              15358
  Alloc PE / Size       7686 / 30.02 GiB
  Free  PE / Size       7672 / <29.97 GiB
  VG UUID               t34tOI-eXcM-RL2C-FsiG-jk0n-Lxw2-pyXuSb

参考

graph-easyで有向グラフのアスキーアートを描いてみる

概要

簡単なフローチャートとかネットワーク図とかをドキュメントに載せたいが、 画像だと大げさだったので、アスキーアートにしたかった。 graph-easyというのを使えばできるみたいだったので、ためしたみた。

graph-easyをインストール

↓はUbuntu16.04でインストールする場合。

$ sudo apt install libgraph-easy-perl

(例) 計算の過程を表す図

graph-easyは標準入力からデータを受け取るので、 「入力(input)を受け取り計算(calculation)して出力(output)する図」は↓のようにすればよい。

$ echo '[input] -> { label: calculation } [output]' | graph-easy

すると↓の出力が得られる。

+-------+  calculation   +--------+
| input | -------------> | output |
+-------+                +--------+

(例) 4つの物理NICをボンディングして仮想ブリッジに接続した図

「4つの物理NICをボンディングして仮想ブリッジに接続した場合」 のLinux内のネットワークインターフェースの図を描いた例。 少しコードが長くなるので、↓を interfaces.txt として保存する。

[eth1] { size: 1,1 }
[eth2] { size: 1,1; origin: eth1; offset: 0,1; }
[eth3] { size: 1,1; origin: eth1; offset: 0,2; }
[eth4] { size: 1,1; origin: eth1; offset: 0,3; }
[bond] { size: 1,4; origin: eth1; offset: 3,0; }

(bonding:
  [eth1] -> { label: LACP } [bond]
  [eth2] -> { label: LACP } [bond]
  [eth3] -> { label: LACP } [bond]
  [eth4] -> { label: LACP } [bond]
)

[br]    { origin: bond; offset: 0,2; }
[br.10] { origin: br; offset: 0,1; label: br.10 (192.168.10.xx/24); }
[br.20] { origin: br; offset: 0,2; label: br.20 (192.168.20.xx/24); }
[br.30] { origin: br; offset: 0,3; label: br.30 (192.168.30.xx/24); }

(bridge:
  [br], [br.10], [br.20], [br.30]
)

[bond] -> [br]

そして↓を実行する。

$ cat interfaces.txt | graph-easy

すると↓の出力が得られる。

+ - - - - - - - - - - - - - - - - - - - - - - - - - - - -+
' bonding:                                               '
'                                                        '
' +--------+      LACP      +--------------------------+ '
' |  eth1  | -------------> |                          | '
' +--------+                |                          | '
' +--------+      LACP      |                          | '
' |  eth2  | -------------> |                          | '
' +--------+                |           bond           | '
' +--------+      LACP      |                          | '
' |  eth3  | -------------> |                          | '
' +--------+                |                          | '
' +--------+      LACP      |                          | '
' |  eth4  | -------------> |                          | '
' +--------+                +--------------------------+ '
'                                                        '
+ - - - - - - - - - - - - - - - - - - - - - - - - - - - -+
                              |
                              |
                              v
                          + - - - - - - - - - - - - - - -+
                          ' bridge:                      '
                          '                              '
                          ' +--------------------------+ '
                          ' |            br            | '
                          ' +--------------------------+ '
                          ' +--------------------------+ '
                          ' | br.10 (192.168.10.xx/24) | '
                          ' +--------------------------+ '
                          ' +--------------------------+ '
                          ' | br.20 (192.168.20.xx/24) | '
                          ' +--------------------------+ '
                          ' +--------------------------+ '
                          ' | br.30 (192.168.30.xx/24) | '
                          ' +--------------------------+ '
                          '                              '
                          + - - - - - - - - - - - - - - -+

めでたしめでたし。

参考

cronの代わりにsystemdのtimerで定期実行を定義してみる

概要

UNIX環境で定期的に処理を実行する場合は一般的にcronを使う。 しかし、cronを使うとログのことに気を遣うのが嫌だった。 (ログの置き場所とか、ログのローテーションとか…。) systemdだとjournaldが一括してログを管理してくれて便利そうだったので、試してみた。 (journaldの設定は /etc/systemd/journald.conf を編集すればよい。)

今回は5秒毎くらいに“hello”を標準出力する処理を実装してみる。 試した環境はUbuntu16.04。

systemd.timer

systemd.timerを使うためには最低2つのファイルが必要になる。 一つは XXXXX.service という処理そのものを定義するファイルで、 もう一つは XXXXX.service をどのタイミングで実行するかを定義する XXXXX.timer というファイル。 XXXXXはserviceとtimerで同じでも異なっていてもいいが、 わかりやすくするために同じの方が良いと思う。 異なっている場合は[Timer]のセクションで明示的にUnit=の指定が必要になる。

マニュアルは↓でみれる。

$ man systemd.timer

わかりやすかったのは↓のwiki。

echo@.service

/lib/systemd/system/echo@.service を↓のように記述する。

[Unit]
Description = echo service

[Service]
Type = oneshot
ExecStart = /bin/echo %i

↑のサービスは↓を実行すると “/bin/echo hoge” が実行される。

$ sudo systemctl start echo@hoge.service

つまり、echo@AAAA.service のAAAAが%iに代入されて実行される。

echo@.timer

上記で定義したサービス echo@.service を2+5n秒毎(誤差2秒)に実行するecho@.timerを定義する。

/lib/systemd/system/echo@.timer を↓のように記述する。

[Unit]
Description = echo@ timer
Wants = multi-user.target
After = multi-user.target

[Timer]
OnCalendar = *-*-* *:*:2/5
RandomizedDelaySec = 2s
Unit = echo@%i.service

[Install]
WantedBy = timers.target

.timer でも .service と同じように@と%iでの置換ができる。

タイマーを起動する

↓で再起動後に自動的に echo@hello.timer が起動するように設定する。

$ sudo systemctl enable echo@hello.timer
Created symlink from /etc/systemd/system/timers.target.wants/echo@hello.timer to /lib/systemd/system/echo@.timer.

↓でecho@hello.timerを起動する。

$ sudo systemctl start echo@hello.timer

するとecho@hello.timerの状態は↓になる。

$ sudo systemctl status echo@hello.timer
● echo@hello.timer - echo@ timer
   Loaded: loaded (/lib/systemd/system/echo@.timer; enabled; vendor preset: enabled)
   Active: active (waiting) since Sat 2018-01-13 20:46:59 JST; 16s ago

Jan 13 20:46:59 timer01 systemd[1]: Started echo@ timer.

↓でだいたい5秒ごとくらいに echo@hello.service が動いていることが確認できる。

$ sudo journalctl -u echo@hello
-- Logs begin at Sat 2018-01-13 20:44:19 JST, end at Sat 2018-01-13 20:48:29 JST. --
Jan 13 20:47:16 timer01 systemd[1]: Starting echo service...
Jan 13 20:47:16 timer01 echo[2198]: hello
Jan 13 20:47:16 timer01 systemd[1]: Started echo service.
Jan 13 20:47:33 timer01 systemd[1]: Starting echo service...
Jan 13 20:47:33 timer01 echo[2213]: hello
Jan 13 20:47:33 timer01 systemd[1]: Started echo service.
Jan 13 20:47:50 timer01 systemd[1]: Starting echo service...
Jan 13 20:47:50 timer01 echo[2214]: hello
Jan 13 20:47:50 timer01 systemd[1]: Started echo service.

(おまけ) 定義されているtimerを確認する

起動したてのUbuntu16.04のtimerの状態は↓で確認できる。

$ systemctl list-timers --all
NEXT                         LEFT          LAST PASSED UNIT                         ACTIVATES
Sat 2018-01-13 18:56:24 JST  10min left    n/a  n/a    systemd-tmpfiles-clean.timer systemd-tmpfiles-clean.service
Sat 2018-01-13 21:27:14 JST  2h 41min left n/a  n/a    snapd.refresh.timer          snapd.refresh.service
Sun 2018-01-14 11:59:07 JST  17h left      n/a  n/a    apt-daily.timer              apt-daily.service
Sun 2018-01-14 15:00:37 JST  20h left      n/a  n/a    apt-daily-upgrade.timer      apt-daily-upgrade.service
n/a                          n/a           n/a  n/a    snapd.snap-repair.timer      snapd.snap-repair.service
n/a                          n/a           n/a  n/a    ureadahead-stop.timer        ureadahead-stop.service

6 timers listed.

(おまけ) サービスの依存関係

systemdはサービスの依存関係を細かく設定できるが、 ユーザレベルで動く処理はmulti-user.targetに依存するように指定しておけば良いと思う。 詳しくは↓を参照。

参考

socatでtapインターフェースを作成して認証も暗号化もしないVPN

概要

socatでTUN/TAPインターフェースを扱えるらしく、 UDPで転送すれば簡単なVPNが構成できそうだったので、やってみた。 認証も暗号化も行わない。 想定する環境は↓。

サーバ クライアント
OS Linux Linux
UDPで接続するIP 192.168.1.1 192.168.1.2
tap1のIP 10.0.0.1/24 10.0.0.2/24

サーバ側

サーバ側で↓を行うとUDPの1194番ポートでListenされる。

$ sudo socat udp-listen:1194,reuseaddr,range=192.168.1.2/32 tun:10.0.0.1/24,tun-type=tap,tun-name=tap1,iff-up,iff-promisc

一応↑ではrangeオプションでクライアントのIPからのみ許可するように設定しているが、 セキュリティ的にはよくはない。

そして、この段階ではまだサーバ側にはtap1インターフェースはできていないはず。

クライアント側

サーバ192.168.1.1:1194につなぎに行くように↓を行う。

$ sudo socat udp:192.168.1.1:1194 tun:10.0.0.2/24,tun-type=tap,tun-name=tap1,iff-up,iff-promisc

するとクライアント側にtap1インターフェースが作成された。

$ ip link show tap1
56: tap1: <BROADCAST,MULTICAST,PROMISC,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UNKNOWN mode DEFAULT group default qlen 1000
    link/ether ce:2d:c2:a5:12:f0 brd ff:ff:ff:ff:ff:ff promiscuity 1

IPアドレス10.0.0.2/24も付加されている。

$ ip addr show tap1
56: tap1: <BROADCAST,MULTICAST,PROMISC,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UNKNOWN group default qlen 1000
    link/ether ce:2d:c2:a5:12:f0 brd ff:ff:ff:ff:ff:ff promiscuity 1
    tun
    inet 10.0.0.2/24 brd 10.0.0.255 scope global tap1
       valid_lft forever preferred_lft forever

pingをクライアントからサーバへ打つ

この状態でpingをクライアント側からサーバ側10.0.0.1へ打ってみるとpingが返ってくる。

$ ping 10.0.0.1
PING 10.0.0.1 (10.0.0.1) 56(84) bytes of data.
64 bytes from 10.0.0.1: icmp_seq=1 ttl=64 time=2.20 ms
64 bytes from 10.0.0.1: icmp_seq=2 ttl=64 time=0.750 ms
64 bytes from 10.0.0.1: icmp_seq=3 ttl=64 time=0.748 ms

そして、サーバ側にtap1インターフェースが作成されていることがわかる↓。

$ ip addr show tap1
39: tap1: <BROADCAST,MULTICAST,PROMISC,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UNKNOWN group default qlen 1000
    link/ether ee:fe:01:71:e7:87 brd ff:ff:ff:ff:ff:ff promiscuity 1
    tun
    inet 10.0.0.1/24 brd 10.0.0.255 scope global tap1
       valid_lft forever preferred_lft forever

MTUの調整

上記で作成されたtap1インターフェースのMTUをサーバ側とクライアント側の両方で設定しておく。

Layer byte
IP 20
UDP 8
Ethernet 18

tapデバイスはイーサネットのフレームも含むため、 L3までに含まれるの各種ヘッダの量は↑である。 したがって、VPNを張りたい経路のMTUが1500の場合、 tap1に設定されるべきMTUは(1500 - 20 - 8 - 18) => 1454と計算できる。

$ sudo ip link set dev tap1 mtu 1454

備考

TUN/TAPのうちTAPにしたかったのは仮想ブリッジに接続したかったからだが、 仮想ブリッジの作成まで記事に含めるのは冗長な気がしたので、 tap1インターフェースに直接IPを振った。

ちなみに、socatはopensslも使えるため暗号化できそうだが、 残念ながらTCPをバインドしてしまって、UDPでは不可能だった。 一方で、openssl s_serverでDTLSを指定するとUDPをバインドすることは確認できたので、 そのうちsocatも対応してくれそうな気がする。

参考

LXDで使用するvethインターフェースの名前を指定して起動する

概要

LXDでコンテナを立ち上げると、ホスト側とコンテナ側にvethペアが作られる。 このときコンテナ側にできるインターフェースの名前はプロファイルで eth0 などに指定できるが、 ホスト側にできるインターフェースの名前はコンテナ毎に違う名前にしなければならないため、 単一のプロファイルでは指定できない。 (指定できるが複数のコンテナを立ち上げたときにエラーが発生する。) 指定しない場合はランダムに vethXXXXXX のようなインターフェースが作成される。

ホスト側のvethインターフェースの名前を指定できると、 iptablesのphysdevオプションでフィルタリングがしやすくなるため、設定したかった。 そこで、コンテナ起動時に指定する方法とコンテナ毎に個別にプロファイルを作成する2つの方法を試してみた。

defaultプロファイルによってコンテナを立ち上げた場合

通常defaultプロファイルは↓のようになっていると思われる。

$ lxc profile show default
config: {}
description: ""
devices:
  eth0:
    name: eth0
    nictype: bridged
    parent: lxdbr
    type: nic
  root:
    path: /
    pool: default
    type: disk
name: default

この状態でコンテナx01を立ち上げる。

$ lxc launch ubuntu:x x01
Creating x01
Starting x01

この場合、x01にはeth0が作成された。

$ lxc exec x03 -- /sbin/ip link
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN mode DEFAULT group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
33: eth0@if24: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default qlen 1000
    link/ether 00:16:3e:08:11:45 brd ff:ff:ff:ff:ff:ff link-netnsid 0

そして、ホスト側にはvethdf49293aというインターフェースができた。

$ /sbin/ip link show dev vethdf49293a
24: vethdf49293a@if23: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue master lxdbr state LOWERLAYERDOWN mode DEFAULT group default qlen 1000
   link/ether e6:26:35:5a:f6:72 brd ff:ff:ff:ff:ff:ff link-netnsid 1

コンテナ起動時に指定する方法

プロファイルはdefaultのままで、コンテナ起動時に volatile.eth0.host_name を設定。

$ lxc launch ubuntu:x x02 -c volatile.eth0.host_name=veth-x02

するとホスト側に veth-x02 というインターフェースが作成された。

$ /sbin/ip link show dev veth-x02
30: veth-x02@if29: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master lxdbr state UP mode DEFAULT group default qlen 1000
    link/ether fe:62:1b:c3:20:1e brd ff:ff:ff:ff:ff:ff link-netnsid 3

プロファイルを個別に作る方法

プロファイルをdefaultから複製し、 devices.eth0.host_name に veth-x03 を設定したプロファイルx03を用意し、 プロファイルx03を指定してコンテナを起動する。

$ lxc profile copy default x03
$ lxc profile device set x03 eth0 host_name veth-x03
$ lxc launch ubuntu:x x03 -p x03

するとホスト側に veth-x03 インターフェースが作成された。

$ /sbin/ip link show dev veth-x03
34: veth-x03@if33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master lxdbr state UP mode DEFAULT group default qlen 1000

めでたし、めでたし。

参考