それマグで!

知識はカップより、マグでゆっくり頂きます。 takuya_1stのブログ

習慣に早くから配慮した者は、 おそらく人生の実りも大きい。

指定したファイルが存在するフォルダを指定する

画像が入ったフォルダを取り出したい。

Nextcloud を触っていて、画像が散らばってしまった。なので、画像大量に入ったフォルダを調べることにする。

となると、どんな方法が良いか思案したが、一番手っ取り早いのは find コマンドだろう

find コマンドでjpg が含まれるフォルダを探す

find してさらに find する感じにしてみた。

#!/usr/bin/env bash

IFS=$'\n'
for i in $( \find .  -mindepth 1 -maxdepth 1  -type d ) ; do
  [[ $( \find $i -type f -iname '*.jpg' | wc -l  ) == 0 ]] && continue;
  echo $i;
done

たくさん画像があるフォルダを探す。

条件をちょっと変えれば、100枚以上の画像があるフォルダを探すってのもできるね。

#!/usr/bin/env bash

IFS=$'\n'
for i in $( \find .  -mindepth 1 -maxdepth 1  -type d ) ; do
  [[ $( \find $i -type f -iname '*.jpg' | wc -l  ) == 100 ]] && continue;
  echo $i;
done

もっといい方法がありそうなんだが、ぱっと思いつかなかった。 GNU コマンドなら --include 等があるからできそうな気もするんだけど。

LXC・LXD のコンテナのポートを外部に公開する docker expose的なやつ

lxc で外部にポートを公開する。

docker だと expose で手軽にできるんだけど、LXCだとiptables使えとか forwarding しろとかめんどくさいので、もっと簡単にポート転送できるものがないか調べた。

プロキシで飛ばせる

たとえば、nginx-container があって、ホスト側のIPを内部にそのまま出すには。

lxc config device add nginx-container my-https proxy  listen=tcp:192.168.12.10:443 connect=tcp:10.185.93.215:443 bind=host
lxc config device add nginx-container my-http proxy  listen=tcp:192.168.12.10:80 connect=tcp:10.185.93.215:80 bind=host

簡単な図解

クライアント 
 →Lxc ホスト 192.168.12.10:80 (転送
   → Lxcゲスト  10.185.93.215:80

追加するときは

lxc config device add $LXC_CONTAINER_NAME $PROXY_DEVICE_NAME proxy  \
   listen=tcp:$LXC_HOST_IP:$LXC_HOST_PORT \
   connect=tcp:$LXC_CONTAINER_IP:$LXC_CONTAINER_PORT bind=host

削除するときは

lxc config device remove $LXC_CONTAINER_NAME $PROXY_DEVICE_NAME

設定の確認

lxc config show nginx-container

これで設定されているプロキシ転送を確認することが出来る。もうすこし楽ちんでも良さそうなものだが。

lxc config proxy お手軽。

proxy で nginx のコンテナを作ってポート転送しておけば、LXCの内部側にいくらでもサービス用にコンテナを起動できて便利。

macvlan や bridge で共有してると、だんだんIPやポートが膨大になってきて頭がおかしくなりそうなので、nginx で一旦中継しちゃうのが便利。

nginx は、比較的なんでも転送できるので、sshpostfix などでも転送できるでちょっとしたルーター代わりにあげておくと便利。

一点だけ問題がある。

lxc のプロキシ設定は、プロキシ先を「IP」で指定しなくちゃいけない。lxc 自体が再起動して、IPが変わると動作しなくなることがあるので注意。

IPが不意に変わることが在り、大混乱を発生させるので、まじで注意。

参考資料

https://hnakamur.github.io/blog/2018/07/05/port-forwarding-using-lxd-proxy/

2020-12-30 更新

削除する方法も併せて書いた

libvirt + qemue の kvm 仮想マシンで画面を持たないコンソールのVMをぱぱっと作成して コンテナみたいに使う

VMがヘビィだ

docker とか LXC 使ってると、VMがヘビィに感じることがある。もっと手軽に仮想マシンを使いたいななどと思う。

UbuntuDebian仮想マシンで新規で作って、コンソールでテキストで扱えれば嬉しいわけです。

SSH経由で、VMを作成

SSHのテキストベースで、仮想マシンを作成し、そのまま コンソールでインストールするコマンド

virt-install というコマンドでぱぱっとVMを作成して、そのままインストールを開始できる。

ubuntu の場合

virt-install \
--name ubuntuLTS \
--ram 30029 \
--disk path=/var/lib/libvirt/images/ubuntu-1910.qcow2 \
--vcpus 4 \
--virt-type kvm \
--os-type linux \
--os-variant ubuntu18.04 \
--graphics none \
--location 'http://archive.ubuntu.com/ubuntu/dists/bionic/main/installer-amd64/' \
--extra-args "console=tty0 console=ttyS0,115200n8"

debian の場合

debian ならこんな感じだろうか。

virt-install \
--name ubuntuLTS \
--ram 30029 \
--disk path=/var/lib/libvirt/images/debian10.qcow2 \
--vcpus 4 \
--virt-type kvm \
--os-type linux \
--os-variant debian10 \
--graphics none \
--location http://ftp.kddilabs.jp/pub/Linux/distributions/Debian/debian/dists/buster/main/installer-amd64/ \
--extra-args "console=tty0 console=ttyS0,115200n8"

インストール画面はSSH経由で

SSHCLIでテキストでインストールで切るので便利。

f:id:takuya_1st:20200401075852p:plain

f:id:takuya_1st:20200401081159p:plain

tasksel で openssh-server を選ぶのを忘れないように

インストール時に、openssh-server を選ばないと、ログインできなくて詰みます。もちろんネットワーク設定が必須です。無いと詰み。

grub を無理やり変更すれば可能だけどめんどくさいので、 openssh-server のインストールを忘れないように。

インストール後に grub を編集します。

シリアル コンソール を使えるように、 grub を設定しておきます。

GRUB_CMDLINE_LINUX_DEFAULT="quiet splash"
##
GRUB_CMDLINE_LINUX="console=tty1 console=ttyS0,115200"
GRUB_TERMINAL="console serial"
GRUB_SERIAL_COMMAND="serial --unit=0 --speed=115200 --word=8 --parity=no --stop=1"

grub を更新しします。

sudo update-grub

これで、virsh からコンソールアクセスができる

virsh console ubuntu-vm

または

virsh
console ubuntu-vm

でコンソールでログインができるようになる。VGA関連をバッサリ削れるのでだいぶ手軽に使えるようになる。

f:id:takuya_1st:20200401133345p:plain

その他の方法

似たような方法でも、同じような目的を達成する事ができます。

Ubuntuクラウド イメージ vmx Debian のクラウド イメージ qcow LXC /docker など

これらを使えば、コンソールで起動するVMを確保することができる。

軽量なコンテナでも良いんだけどVMが良いというときなど、TPOに合わせて使い分けていきたい。 何でもかんでもDockerが最高というわけでもないので

参考資料

Creating Virtual Machines on KVM with virt-install

https://cloud.debian.org/images/cloud/

lxc でコンテナへファイルを送信(コピー)する。

lxc で ホストからコンテナへファイルを送信する。

LXC は lxc の file コマンドでファイルをコピーすることができる。

takuya@:~$ lxc file push ~/.vimrc  ${CONTAINER}/root/

ただし! 末尾の スラッシュを除外すると面倒になるので注意。

takuya@:~$ lxc file push .vimrc  ${CONTAINER}/root
Error: Path already exists as a directory: File too large

/root の中にコピーしようと思うと、末尾のスラッシュを入れないと、ファイル名として解釈されてしまう。

すごくオペレーションミスになりやすいので注意。

gitlab を lxd/lxc などの仮想マシンに入れようとしてエラー

apt install gitlab-ce したらエラーになった。

 * execute[load sysctl conf kernel.sem] action run
      [execute] * Applying /etc/sysctl.d/90-omnibus-gitlab-kernel.sem.conf ...
                * Applying /etc/sysctl.d/90-omnibus-gitlab-kernel.shmall.conf ...
                * Applying /etc/sysctl.d/90-omnibus-gitlab-kernel.shmmax.conf ...
                sysctl: permission denied on key 'kernel.sem'
                sysctl: permission denied on key 'kernel.shmall'
                sysctl: permission denied on key 'kernel.shmmax'
                sysctl: permission denied on key 'fs.protected_hardlinks'
                sysctl: permission denied on key 'fs.protected_symlinks'
                * Applying /etc/sysctl.d/99-sysctl.conf ...
                * Applying /etc/sysctl.d/protect-links.conf ...
                * Applying /etc/sysctl.conf ...

      ================================================================================
      Error executing action `run` on resource 'execute[load sysctl conf kernel.sem]'
      ================================================================================

エラーになる。

Running handlers:
There was an error running gitlab-ctl reconfigure:

gitlab_sysctl[kernel.sem] (postgresql::enable line 81) had an error: Mixlib::ShellOut::ShellCommandFailed: execute[load sysctl conf kernel.sem] (/opt/gitlab/embedded/cookbooks/cache/cookbooks/package/resources/gitlab_sysctl.rb line 46) had an error: Mixlib::ShellOut::ShellCommandFailed: Expected process to exit with [0], but received '255'
---- Begin output of sysctl -e --system ----
STDOUT: * Applying /etc/sysctl.d/90-omnibus-gitlab-kernel.sem.conf ...
* Applying /etc/sysctl.d/90-omnibus-gitlab-kernel.shmall.conf ...
* Applying /etc/sysctl.d/90-omnibus-gitlab-kernel.shmmax.conf ...
* Applying /etc/sysctl.d/99-sysctl.conf ...
* Applying /etc/sysctl.d/protect-links.conf ...
* Applying /etc/sysctl.conf ...
STDERR: sysctl: permission denied on key 'kernel.sem'
sysctl: permission denied on key 'kernel.shmall'
sysctl: permission denied on key 'kernel.shmmax'
sysctl: permission denied on key 'fs.protected_hardlinks'
sysctl: permission denied on key 'fs.protected_symlinks'
---- End output of sysctl -e --system ----
Ran sysctl -e --system returned 255

sysctl の値がおかしい。

つまり、 lxc 内部から、sysctl を実行できないことに起因するっぽい

LXC のゲストとホストがあり、インストールをした直後の LXC ホストにLXCゲストを入れてて gitlab を apt install しようとしたら起動する

root@lxc-container $ exit
root@lxc-host# sysctl -e --system
root@lxc-host# lxc console  lxc-container
root@lxc-container $ sudo gitlab-ctl reconfigure

他にも sysctl 関連で次のようなエラーが出る。

execute[load sysctl conf net.core.somaxconn] action run
      [execute] * Applying /etc/sysctl.d/90-omnibus-gitlab-kernel.sem.conf ...
                * Applying /etc/sysctl.d/90-omnibus-gitlab-kernel.shmall.conf ...
                * Applying /etc/sysctl.d/90-omnibus-gitlab-kernel.shmmax.conf ...
                sysctl: permission denied on key 'kernel.sem'
                sysctl: permission denied on key 'kernel.shmall'
                sysctl: permission denied on key 'kernel.shmmax'
                sysctl: permission denied on key 'fs.protected_hardlinks'
                sysctl: permission denied on key 'fs.protected_symlinks'
                * Applying /etc/sysctl.d/99-sysctl.conf ...
                * Applying /etc/sysctl.d/protect-links.conf ...
                * Applying /etc/sysctl.conf ...

      ================================================================================
      Error executing action `run` on resource 'execute[load sysctl conf net.core.somaxconn]'
      ================================================================================

他の対処法があったり

lxc のゲストに自身の sys 設定を許可する設定をするとか

$ lxc config set container-name security.privileged true
$ lxc config set container-name raw.lxc "lxc.mount.auto=sys:rw proc:rw cgroup:mixed"
$ lxc config get container-name raw.lxc
lxc.mount.auto=sys:rw proc:rw cgroup:mixed
$ lxc start container-name 
$ lxc exec container-name 'sysctl -w kernel.shmmax=17179869184'

privileged で特権を入れてあげても良いかもしれない。

LXC のホスト側から sysctl をガッツリ変えたものをシェアするとか

 /etc/sysctl.conf /etc/sysctl.d/*.conf | sysctl -e -p - 

lxc つかうとこういう事が起きるんですね。

最終的に

ホスト側に sysctl で次の値を設定して

takuya@m75q-1:~$ sudo sysctl -p
kernel.shmall = 4194304
kernel.shmmax = 17179869184
kernel.shmall = 4194304
kernel.sem = 250 32000 32 262
net.core.somaxconn = 1024
kernel.shmmax = 17179869184

ゲスト側に privellege と read/write を仕込んで無事動きましたね。

ただ、gitlab の更新が来たら、また動かくなったので

LXCで動かすのは不可能だと思いました。

関連資料

https://askubuntu.com/questions/831481/how-to-set-lxc-mount-auto-in-lxd

https://forum.proxmox.com/threads/installing-gitlab-into-lxc-container-sysctl-kernel-shmmax.49388/

IPアドレスから地域判定するgeoipをipinfoで実現する。香川県判定

ipinfo というサービスがありまして。

ここに、リクエストを投げると、JSONで位置情報をくれる。

curl ipinfo.io
$ curl https://ipinfo.io/json

{
  "ip": "49.105.999.999",
  "hostname": "mo49-105-999-99999.fix.mopera.net",
  "city": "Tokyo",
  "region": "Tokyo",
  "country": "JP",
  "loc": "35.6910,139.7679",
  "org": "AS9605 NTT DOCOMO, INC.",
  "postal": "101-0047",
  "timezone": "Asia/Tokyo",
  "readme": "https://ipinfo.io/missingauth"
}

/json にリクエストを投げるとリクエスト元のIPアドレスで情報が返ってくる。

指定したIPの都道府県情報を得る

GETのPATHにIPアドレスを含めることで指定したIPアドレスの地域情報を得ることができる。

curl https://ipinfo.io/49.111.111.XXX/json

指定したIPが香川県かどうか調べる

そうです。地域判定が必要なのは、香川です。kagawa を判定しないといけません。

[[ $( curl https://ipinfo.io/49.111.111.111 | jq .region ) == 'kagawa' ]]

nginx と組み合わせます。

nginx に cookie アクセス制限を取り付けて、cookie未発行なら、香川チェックを受けてもらいます。

https://takuya-1st.hatenablog.jp/entry/2018/05/08/182127

findコマンドでファイルの所有ユーザーを調べ所有者を間違っているファイルを探す。

find コマンドで、自分以外の所有者のファイルを探す。

ユーザーがtakuya 以外のファイルやディレクトリを探す。

find .   -not -user takuya

指定した所有者のファイルを探す。

not を外せば、所有者を限定してファイルを探す。

find .   -user takuya

オーナーではなく -user です。

指定したユーザーグループを探す

重ねがけが出来ます。

find .   -user takuya -and -group takuya

ユーザー設定が意図通りになっていないものを探す。

find .  -not -user takuya -and -not -group takuya

また、指定した所有者以外になってるものを探す。

find .  -not -user takuya -and -not -user www-data

and と or と not を組み合わせる

条件を組み合わせると、ファイルのオーナーやグループを限定して除外したり検索ができるので find コマンドの適用範囲は広がると思う。

-and XXX 
-and -not XXX
-or -not XXX
-or XXX

find コマンド 関連記事

すぐわかるfindコマンドの使い方 - それマグで!

find コマンドで所有者やグループが条件マッチするファイルを探す - それマグで!

Amazonで横幅が広がったパソコン向け表示になってしまったのをスマホサイトに戻す。PC→スマホ、スマホ→PC

アマゾンでスマホ向けサイトに戻したい。

Amazonを見ていると稀に、iPadなどタブレットがPC表示になってしまったりする。スマホでPC版サイトを開いたらスマホ版に戻れなくなったって割とあるんですよね。

f:id:takuya_1st:20200324155822p:plain:w320

スマホサイトに戻すには

モバイルサイトに戻すリンクをクリックします

リンク →モバイル表示: https://www.amazon.co.jp/gp/anywhere/site-view.html?&opt=mobile

もとに戻すには、リンクをクリックするだけす→ モバイルサイト・リンク

PCサイトを閲覧するには

リンク→ PC表示 : https://www.amazon.co.jp/gp/anywhere/site-view.html?&opt=desktop

リンクは、最下段にあります。

スマホで表示中に、パソコン向け表示→モバイル表示にもとに戻すには、一番下にあるリンクをクリックすればいいのですが、とてもタッチしにくいので、リンクを覚えておくほうが便利だと思います。

f:id:takuya_1st:20200324160611p:plain

文字が小さいので見にくい?

見にくいのは、拡大縮小である程度見ることが出来ます。

パソコン向け表示だと、多少は見にくいですが、検索結果で広告が見やすかったり、商品詳細が1ページで済むので操作が少なくなる良さもあります。上手に使い分けてみてはいかがでしょうか。

アプリ版は、複数タブを開けないのでとても不便ですね。

もっとカンタンに iOSショートカットで!

amazonスマホ表示に戻す ショートカット

AmazonをPC表示にする ショートカット

telnet / openssl を用いて pop3/pop3s のサーバーの疎通を確認する。

pop3 サーバーにtelnet でアクセスする

telnet  pop3.myserver.example.com 110 

over tls /ssl の場合は、openssl を使う

SSL/TLS を経由した暗号化通信をする場合は、openssl コマンドを使います。次の例は、googlegmailpop3 over ssl したときのアクセス例です。

openssl s_client -connect pop.gmail.com:995 -crlf

POP3でログインする。

+OK  ready for requests from 
USER USERNAME@myserver.example.com
+OK send PASS
PASS MY_PASSWORD
+OK Welcome.
STAT
+OK 260 4516798

入力待ちになったら、まずユーザー名を呈示します

USER ユーザー名@ドメイン{enter}

ユーザー名がOKならサーバーから +OK が返ります

+OK 

次にパスワードを入れます

PASS MY_SECRET{enter}

するとサーバーからOKが返ります。

+OK Welcome.

コマンドが間違っていると サーバーから ERRが返ります。

-ERR

応答を+/-だけ見ていればいいのでラクですね。

何件あるか

STAT

STAT を送信すると、件数が表示されます。( gmail の場合 迷惑メールやゴミ箱も併せて表示されるので、250 件前後になるそうです。)

メールの一覧

LIST

一覧が表示されます。 . ピリオドが来るまでが一覧と番号です。 UIDL (Unique ID Listing) でも可能です。

メールの取得

メールの取得は TOP か、RETR を使います、が、RETR は その名の通りRETREIVE で取り出して削除してしまうのであまり使いません。( gmail のpop サーバーはエラーになる。)。

メールを取り出します。メール取得は本文の行数分処理されます。

No. 260 を先頭から1000行取り出す例

TOP 260 1000

指定した行数に満たない場合は、有るだけ出てきます。これも . ピリオドが来るまで、データが転送されます。

メールのヘッダがほしいときは 0 を指定すると楽です。

TOP 260 0

接続の終了

終了には次の文字列を送信します。

QUIT

無事切断されました。

quit
+OK Farewell.
read:errno=0

実際の接続例

f:id:takuya_1st:20200323192014p:plain

gmail の pop接続した場合の注意点

最新の250件程度が表示されますが、スレッド表示されてないなど、GmailのWEBからみた表示とは異なります。

「250 件ほど」のメッセージのリストが提供される理由: POP クライアントから Gmail に対してメッセージのリストが要求されると、まだ POP でダウンロードされていない、日付の古い順に 250 件のスレッドが Gmail で取得されます。Gmail のスレッドは複数のメッセージで構成されている場合もあるため、メール クライアントでダウンロードされる個別のメッセージ数は通常 250 件よりも多くなります。 https://support.google.com/a/answer/6089246?hl=ja

POP3

そういえば、最近はPOPって使わなくなりましたね。IMAP / SMTP を直接叩いたことはあるんですが、popは長いこと触って無いなと思って改めてためしました。 とてもシンプルですね。

参考資料

POP3(Post Office Protocol version 3):インターネット・プロトコル詳説(7) - @IT

関連資料

IMAP の場合 telnet(openssl)でIMAPプロトコルを喋ってGmailに命令を出す。 - それマグで!

SMTPの場合 SMTP の認証プロトコルを手作業で確認する - それマグで!

docker のイメージやコンテナを削除する. まとめて全削除

docker でストレージが圧迫される

docker build とか docker hub でイメージ取得してるとありがち。ストレージ圧迫される。

全部のコンテナを削除する

docker rm $( docker ps -a -q )

全部のイメージを削除する

 docker image rm  $( docker images -q )

依存関係に注意。

ただし、イメージには依存関係がある。ubuntu を使ってる XXXイメージを消そうととするなら、ちゃんと先に使ってるXXXを消す必要がある。まとめて指定すれば依存関係は内部でチェックして問題なければ解決して削除する。

また、イメージとコンテナに依存関係があって、起動中や終了してるコンテナで利用されてたら、削除する事はできない。

コマンドのポイント

docker ls -a -q 
docker image ls -q 

オプションで -q をつけるのがポイント。ここ大事なので試験に出ます。

echo  $(  date   ) 

コマンドのドルマーク $( ) は、カッコの中身を先に実行して、その結果をコマンドの引数にします。改行やスペースで文字区切りされて引数として渡されます。

その他チェックするもの

ボリュームもチェックしておくといいです

docker volume ls 

容量不足に泣かされないでも、docker build は速くしたい→キャッシュサーバー

docker build をためしたり、dockerfile を作るときに大量につくってしまったり、ストレージを圧迫される事が多かったのでメモ

もし、削除しても専用のキャッシュサーバーを作っておくと手速い

また、ubuntu など apt を頻繁に回すときは apt-cacherを使うapt-cacherで docker buildを速くする - それマグで!

関連資料

PhpStorm/WebStorm/IntelliJ IDEA など でUndo(やり直し)回数を増やす.

Jetbrains の phpstorm 愛用してますが、アンドゥ回数が不満です。

不満で仕方ないです。コードをリファクタリングしてるときとか、ちょっと戻したり、ちょっと進めたり、undo/redo の Ctrl-Z(⌘-z)をめっちゃ押します。

でも、履歴件数が少なすぎます。いつもああああ戻れない。って焦ります。

アンドゥの代わりに、そのために git でまいかい gitでコミットしたり stash するのも不便です。マージとrebase だらけでヒストリもカオスになったり。 (git の勉強にはなるんだけどさ)

Undo 回数は増やせます。

「やり直し(もとに戻す Ctr-Z ⌘-Z) 」 の回数は増やせます。

それは IDEレジストリ(registry ) にあります。

Find Action をひらく

Find Action ( CMD-Shift-A ) から f:id:takuya_1st:20200319024624p:plain

レジストリ ( registry) を探します。

f:id:takuya_1st:20200319023952p:plain

レジストリの undo 項目を探します。

初期値(デフォルト値)は100 ですが、任意の回数に増やすことが出来ます。 f:id:takuya_1st:20200319023936p:plain

検索しづらい

アンドゥやレジストリという、WindowsやDockerのキーワードと「モロ被り」なのでちょっと検索がしにくいです。特にGoogle

これは docker 設定

こういうのが検索に掛かってきて、ちょっと不便ですね。

設定方法を忘れたときは、 「Android Sttudio やり直し回数 履歴」だとか、「やり直し 回数 phpstorm 」だとか、検索結果に妙に特徴のでる製品名を選んだらいいと思います。

レジストリ やり直し intellij」だと本当にひどい目に合う。キーワードから類似語だと認識される、窓OSのアフィブログまみれになります。

f:id:takuya_1st:20200319025011p:plain f:id:takuya_1st:20200319023956p:plain

参考資料

Is there a way to increase the undo history size? – IDEs Support (IntelliJ Platform) | JetBrains

PHPStormでUndo回数を増やす件 - uzullaがブログ

https://youtrack.jetbrains.com/issue/WI-21306?_ga=2.191367971.824244746.1584552897-6632410.1584552897#comment=27-639779

指定サイズのファイルを作る方法 ( head 編 )

任意の指定サイズのファイルを作る方法

head を使う場合。

takuya@~$ head -c 100k /dev/urandom > out
takuya@~$ ll out
-rw-r--r-- 1 takuya staff 100K 2020-03-18 13:59 out

ランダム( /dev/urandom) から読み出して、指定サイズを作ります。 head は -c でサイズ指定が出来ます。

色々なサイズ

1M ( 1024*1024 )のサイズを読みだした場合

takuya@~$ head -c 1m /dev/urandom > out
takuya@~$ ll out
-rw-r--r-- 1 takuya staff 1.0M 2020-03-18 14:01 out
takuya@~$ \ls -l out
-rw-r--r-- 1 takuya staff 1048576  3 18 14:01 out

1G ( 1024* 1024 * 1024 ) のサイズを読みだした場合

takuya@:~$ ll out
-rw-rw-r-- 1 takuya takuya 1.0G 2020-03-18 14:02 out
takuya@:~$ \ls -l  out
-rw-rw-r-- 1 takuya takuya 1073741824  3月 18 14:02 out

少数 0.1m や 1g が指定できないので、それをしたいときは bash の四則演算を使って計算すればいい

takuya@:~$ head -c $(( 1024 * 1024 * 2 / 10   )) /dev/urandom > out

他の方法

他の方法は、過去記事を参考にしてください。

windows なら fsutil 、 linux なら dd を使う方法もあります。

参考資料

  • man head

phpでプロスセス実行するライブラリ書いた。

php でコマンドのプロセス実行したい。

シェルコマンドの呼び出しをどうしてもやる必要があって、ずっと proc_open について調べてたり、pakagist / pear などのライブラリを見てたんだけど、代表的なものをいくつか試した。しかしコレと思えるものや使い方が気に入るものがなかった。仕方ないので自作した。

php のシェルコマンド実行の問題点

いくつか、気づいた問題点があり、それを解消できるパッケージがなかった。

プロセスを実行するライブラリには限界がある。

php には memory_limtit と max_execution_time という、プロセスを実行する妨げになる設定がある。この制限があるので、途中で処理が止まる。特に巨大なアウトプットで時間がかかる処理(たとえば ffmpeg ) を php から実行すると、予想外の箇所で停止することがある。途中でコマンド実行が止まってしまうと本当に駄目。巨大なアウトプットはメモリ使い果たすどころか、エラーにならないことすらある。

プロセスを実行するライブラリはほとんどが、結果を文字列で返そうとする。そのためメモリ制限に掛かりエラーになる。phpのmemory exhausted とか excess of memory とか急に出てくるのでライブラリを使うのを諦めた。

パイプで処理を渡したい

パイプで処理を渡す( echo hello | cat のようなもの ) 、このためのシェルコマンドのエスケープがうまく出来ない。または面倒だったり、またパイプを使うとなぜか詰まることがある。先のプロセスのoutput をうまく後者のstdin に繋げなかったphp のライブラリがある。

ライブラリの使い方が煩雑。

ライブラリを眺めてると、手順が煩雑だったり、インストール後のコードが依存関係で面倒になったりしてた。

vanilla な phpでストリームを扱いたい。

php でちゃんとstdout を扱うとしたら proc_open に合わせてストリームで処理する必要があるだろう。文字列で渡す前提なのでトラブルが多い。また一時ファイルを大量に使うことになって不便だった。

php の proc_openがきれいじゃない。

php でプロセスをある程度制御したいなら proc_open を使うのだが、これがC言語スタイルで良くない。手続きが煩雑なのでコードの見通しが悪い。

作った

仕方ないので、コロナ春休みを活用して作ることにして、完成した。

github.com

使い方

<?php

$proc = new Process();
$proc->setCmd('php')
    ->setInput('<?php echo "Hello World"')
    ->pipe('cat')
    ->pipe('cat')
    ->pipe('cat')
    ->wait();
 //
$fd = $proc->getOutput();
$out = stream_get_contents($fd);
print($out);// -> Hello World

コマンド実行をしたり、パイプで渡したり、ファイルディスクリプタを受け渡してストリームで処理する。

これで巨大なアウトプットを一時ファイル(php:/temp)を使って受け渡ししたり、プロセスをちゃんと終了させたり、タイムアウト待ちができるようになった。

シェルコマンドのリダイレクトの代わり

シェルコマンドのリダイレクトを文字列でやらずに、こう書くことができる

STDINのリダイレクト

標準入力のインプットを渡すときはシェルコマンドはこう

cat < out.txt

これと同じ、プロセスのコマンド実行を、次のように書けるようにした。

<?php

$proc = new Process();
$proc->setCmd('cat')
$proc->setInput('/tmp/out.txt"')
$proc->run();
 //
$fd = $proc->getOutput();

STDOUTのリダイレクト

標準出力のアウトプットを渡すときはシェルコマンドはこう

date > out.txt

これと同じ、標準出力のリダイレクトでプロセスのコマンド実行は、 次のように書けるようにした。

<?php

$proc = new Process('date');
$proc->setOutput('/tmp/out.txt"')
$proc->run();

パイプでつなぐ

パイプは、コマンド実行できるプロセスを2つ起動して、input と output をつなぐだけなので、そのように書けるようにした。

date | cat 

これと同じ実行を php でできるようになった。

<?php
$proc1 = new Process('date');
$proc1->setInput($str);
[$p1_out, $p1_err] = $proc1->start();

$proc2 = new Process('cat');
$proc2->setInput($p1_out);
$proc2->run();

$p2_out = $proc2->getOutput();

$str = stream_get_contents($p2_out);

stdout / stdin をつなぐだけなら、定形なのでもっと簡単にメソッドチェーンで書けるようにした。

パイプを複数つなげる。

メソッドチェーンで書けると書きやすいだろうし、そう書けるようにした。

<?php

$proc = new Process('date');
    ->pipe('cat')
    ->pipe('cat')
    ->wait();
//
$fd = $proc->getOutput();
$out = stream_get_contents($fd);
print($out);// -> Hello World

標準入力に文字列を渡す。

コマンド実行時に、標準入力として文字列を渡して、プロセスに実行させる。標準入力からファイルの中身を受け取るコマンドを実行する。

echo 'echo Hello World' | sh

標準入力に文字列を渡してコマンドを実行する。

<?php
$str = 'echo "Hello World"';
$proc = new Process('sh');
$proc->setInput($str );
$proc->run();
$fd = $proc->getOutput();
$out = stream_get_contents($fd);

標準入力に文字列を渡せば、標準入力読み取りに対応するコマンドなら実行できる。grepsedはもちろん、phppythonruby もだ。

php も実行できる

<?php
$str = '<?php echo "Hello World"';
$proc = new Process('php');
$proc->setInput($str );
$proc->run();
$fd = $proc->getOutput();
$out = stream_get_contents($fd);

コマンドに標準入力をちゃんと渡せるなら、phpから phpの proc_openもできるの。ライブラリを作ったことでだいぶ書きやすくなった。

python 実行も同様に

<?php
$proc = new Process('python');
$proc->setInput('
import sys
print(sys.path)
');
$proc->run();
$fd = $proc->getOutput();
$out = stream_get_contents($fd);
var_dump($out);

同様に、標準入力にソースコードを渡せば実行できるpython もちゃんと動かせてる。

ssh 経由でコマンドを実行する

ssh 経由での実行は、php の標準のプロセス実行をそのまま使うとエスケープ面倒 。それもやりたいので対応させた。

<?php
$proc = new Process(['ssh','root@192.168.2.1','sh -c date']);

$proc->run();

$fd = $proc->getOutput();
$out = stream_get_contents($fd);
var_dump($out);// -> Sat Mar 14 09:32:18 JST 2020

実行中にリアルタイムでなにか処理をいれる

プロセスの実行中に何かをやりたい。expect みたいに入力を判定させたりするコールバック関数を渡せるようにもした。

<?php

$proc = new Process('php');
$proc->setInput('<? sleep(1); echo "Hello World"');
$proc->start();

$proc->wait(
  function ($status,$pipes){
    var_dump('wating');
    usleep(1000*10);
  },
  function ($status,$pipes){
    var_dump('success.');
  },
  function ($status,$pipes){
    var_dump('error occured');
  }
);

実行エラーを例外に。

プロセスに実行エラーを例外として取得したいとき、コールバックで例外を投げればできる。

<?php

try{
  $proc = new Process('___noexists_command_');
  $proc->setOnError(function($pr,$io){
    throw new \Exception('error');
  });
  $proc->run();
  
}catch (\Exception $e){
  echo 'error occured';
}

proc_open 自体には例外がないので、ラッピングするしかなかった。

まとめ

シェルコマンドのプロセスの実行をあれこれするには、STDIN/STDOUTのパイプをファイルのディスクリプタで繋ぐ必要がある。phpではIOを stream 系のファイルディスクリプタの関数群でこれを使う必要がある。ところがコマンド実行ができるライブラリやパッケージで、ファイルディスクリプタをIOを扱えるパッケージはあまり見当たらなかった。

proc_open で確保されるデフォルトのpipeストリームは数MBを超える出力を扱うとなぜか固まってた。また起動したプロセスにうまく stdin を fclose して渡せないものだったり、fcloseのeof 待ちになってフリーズしてた。それの辺をどうしても解消したかった。併せてコードとしてシェル実行を書きやすい形にできるライブラリがほしかった。

packagist にも投げた

takuya/process - Packagist

php の proc_open の処理を callback で少し見通しよく

proc_open のコードがカオスになってる

proc_open でプロセスを起動して実行できる。

でも、あれこれ手順が煩雑でわかりにくい。

コールバックを使って整理する

こういうときは、関数の引数に関数を取れば整理されるはず。

<?php
function process_exec( 
    $cmd,
   $callback_on_finished=null,
   $callback_on_every_waiting=null,
   $callback_on_error=null
)
{
  
  $callback_on_finished = $callback_on_finished ?? function(){};
  $callback_on_every_waiting = $callback_on_every_waiting ?? function(){};
  $callback_on_error = $callback_on_error ?? function(){};
  
  $descriptor = [
    0 => ['pipe', 'r'],
    1 => ['pipe', 'w'],
    2 => ['pipe', 'w'],
  ];
  // 実行
  $process = proc_open($cmd, $descriptor, $pipes, sys_get_temp_dir());
  do {
    usleep(1000*1);
    $stat = proc_get_status($process);
    $callback_on_every_waiting($stat, $pipes, $process );
  } while(preg_match('/process/i', get_resource_type($process)) && $stat['running']);
  if( $stat['exitcode'] > 0 ) {
    $callback_on_error($stat, $pipes );
    proc_close($process);
    return ;
  }
  $callback_on_finished($stat, $pipes);
  proc_close($process);
}

実行する側

<?php
$start_time = time();

$waiting = function ( $status , $pipes) use ($start_time) {
  if(preg_match('/stream/i', get_resource_type($pipes[0]))){
    fwrite($pipes[0],"---\nabcd\nefgh\n----\n");
    fclose($pipes[0]);
    usleep(1000*1);
  }
  if ( $start_time + 3 < time() ){
    posix_kill($status['pid'], SIGKILL);
    die('force kill');
  }
};
$on_error = function (){

};
$str = '';
$finished = function ( $staus, $pipes ) use (&$str){
  $str = stream_get_contents($pipes[1]);
};

$cmd = [
  "cat",
];
process_exec( $cmd, $finished, $waiting, $on_error);
print($str);

パイプと最大実行時間

パイプと最大時間をうまく使えば、プロセス起動をうまく使ってゾンビを作らずに済むし、実行時間を気にず、細切れにジョブを実行できる。

関連資料

phpのproc_open関数でコマンドのstdin/stdout/パイプを使う例を確認しました。 - それマグで!

libvirtの仮想マシンの仮想マシン用可変イメージを作る

virt-manager で qcow 作ると・・・

スパースファイルなのに、指定した容量が作られてしまう。

f:id:takuya_1st:20200308173915p:plain

割当<=最大容量なので20GBを作成するには、20GBが確保されてしまいます。

 sudo ls -lh /var/lib/libvirt/images/test.qcow2
-rw------- 1 root root 21G Mar  8 17:22 /var/lib/libvirt/images/test.qcow2

もはやこれはバグではと思いたくなるレベルなのでした。

qcow2 とは

スパースファイルです。仮想マシン用に事前に20GB確保しても、実際には使用量しか消費しません。

その代わり、実際の使用量を超えた分の書き込みは都度確保され書き込まれます、その代わりパフォーマンスに多大な影響を及ぼすことになります。

パフォーマンス劣化と言ってもCPUは十分に早くてストレージが十分に速くnvme のSSDのいまはあまり気にならないレベルなんじゃないかなと思います。

qcow2 で可変サイズなディスクイメージファイルが作れます。

ちゃんと qcow2 のイメージを作る

20GB の qcow2 のスパースファイルを作成する場合はこれ.

qemu-img create -f qcow2  my-test.qcow2 20G

作った結果を確認

仮想マシン用にディスクのイメージを作成して

takuya@:~$ qemu-img create -f qcow2  my-test.qcow2 20G
Formatting 'my-test.qcow2', fmt=qcow2 size=21474836480 cluster_size=65536 lazy_refcounts=off refcount_bits=16

作成した結果を確認します。

takuya@:~$ qemu-img info  my-test.qcow2
image: my-test.qcow2
file format: qcow2
virtual size: 20G (21474836480 bytes)
disk size: 196K
cluster_size: 65536
Format specific information:
    compat: 1.1
    lazy refcounts: false
    refcount bits: 16
    corrupt: false

実際に利用された容量を見ます。

takuya@:~$ ls -lh   my-test.qcow2
-rw-r--r-- 1 takuya takuya 193K 2020-03-08 17:26 my-test.qcow2

うん、全然浪費してない。

結論

virt-manager 意味不明。ちゃんとコマンドから使う。

参考

KVM ディスク操作 - わすれないうちにメモしよう

https://research.sakura.ad.jp/2010/03/23/kvm-diskperf1/