memo: app-text/poppler0.68.0 のビルド失敗 (gentoo)

gentoo にて、app-text/poppler-0.68.0のビルドを行うと以下のように失敗するようになった。
 6%] Building CXX object CMakeFiles/poppler.dir/goo/JpegWriter.cc.o
/usr/lib/ccache/bin/i686-pc-linux-gnu-g++ -Dpoppler_EXPORTS -I/var/tmp/portage/app-text/poppler-0.68.0/work/poppler-0.68.0 -I/var/tmp/portage/app-text/poppler-0.68.0/work/poppler-0.68.0/fofi -I/var/tmp/portage/app-text/poppler-0.68.0/work/poppler-0.68.0/goo -I/var/tmp/portage/app-text/poppler-0.68.0/work/poppler-0.68.0/poppler -I/var/tmp/portage/app-text/poppler-0.68.0/work/poppler-0.68.0_build -I/var/tmp/portage/app-text/poppler-0.68.0/work/poppler-0.68.0_build/poppler -I/usr/include/freetype2 -I/usr/include/openjpeg-2.3   -DNDEBUG -Wall -Wextra -Wpedantic -Wno-unused-parameter -Wcast-align -Wformat-security -Wframe-larger-than=65536 -Wlogical-op -Wmissing-format-attribute -Wnon-virtual-dtor -Woverloaded-virtual -Wmissing-declarations -Wundef -Wzero-as-null-pointer-constant -Wsuggest-override -march=pentium3 -O2 -pipe -std=c++11 -Wnon-virtual-dtor -Woverloaded-virtual -fPIC   -pthread -std=c++11 -o CMakeFiles/poppler.dir/goo/JpegWriter.cc.o -c /var/tmp/portage/app-text/poppler-0.68.0/work/poppler-0.68.0/goo/JpegWriter.cc
/var/tmp/portage/app-text/poppler-0.68.0/work/poppler-0.68.0/goo/JpegWriter.cc: メンバ関数 ‘virtual bool JpegWriter::init(FILE*, int, int, int, int)’ 内:
/var/tmp/portage/app-text/poppler-0.68.0/work/poppler-0.68.0/goo/JpegWriter.cc:146:39: エラー: cannot convert ‘bool’ to ‘boolean’ in assignment
   priv->cinfo.optimize_coding = priv->optimize;
                                       ^~~~~~~~
make[2]: *** [CMakeFiles/poppler.dir/build.make:303: CMakeFiles/poppler.dir/goo/JpegWriter.cc.o] エラー 1
make[2]: ディレクトリ '/var/tmp/portage/app-text/poppler-0.68.0/work/poppler-0.68.0_build' から出ます
make[1]: *** [CMakeFiles/Makefile2:100: CMakeFiles/poppler.dir/all] エラー 2
make[1]: ディレクトリ '/var/tmp/portage/app-text/poppler-0.68.0/work/poppler-0.68.0_build' から出ます
make: *** [Makefile:141: all] エラー 2
 * ERROR: app-text/poppler-0.68.0::gentoo failed (compile phase):
 *   emake failed
 * 
 * If you need support, post the output of `emerge --info '=app-text/poppler-0.68.0::gentoo'`,
 * the complete build log and the output of `emerge -pqv '=app-text/poppler-0.68.0::gentoo'`.
 * The complete build log is located at '/var/log/portage/app-text:poppler-0.68.0:20190110-041935.log'.
 * For convenience, a symlink to the build log is located at '/var/tmp/portage/app-text/poppler-0.68.0/temp/build.log'.
 * The ebuild environment file is located at '/var/tmp/portage/app-text/poppler-0.68.0/temp/environment'.
 * Working directory: '/var/tmp/portage/app-text/poppler-0.68.0/work/poppler-0.68.0_build'
 * S: '/var/tmp/portage/app-text/poppler-0.68.0/work/poppler-0.68.0'
他に失敗してる人いるだろうかと調べたが見あたらなかったので、パッチを当てることにした。

gentooでは任意のパッチを当てる仕組みがあるようだ。

しかし、popplerのebuildではepatch_userを呼んでいないようだったため、以下のbashrcを用意し、/etc/portage/bashrcとして設置した。
if [ "${EBUILD_PHASE}" == "src_prepare" ] && [ "${PN}" == "app-text/poppler" ]; then
epatch_user
fi
そして、/etc/portage/patches/app-text/poppler ディレクトリを作成し、その中に

https://gitlab.freedesktop.org/poppler/poppler/commit/de34900993bff73c8da651319027b2fa8c490172.patch

を設置してbuildしたところ、無事パッチがあたってビルドに成功した。

iptables のログで dmesg を埋めないよう ulogd 経由で syslog に

iptablesのログ出力でdmesgが埋め尽くされると困るので、NFLOGエクステンションを用いて、ulogd経由でsyslogにログを吐くようにしてみた

/etc/ulogd.conf

[global]
logfile="/var/log/ulogd.log"
loglevel=5
rmem=131071
bufsize=150000

plugin="/usr/lib/ulogd/ulogd_inppkt_NFLOG.so"
plugin="/usr/lib/ulogd/ulogd_inpflow_NFCT.so"
plugin="/usr/lib/ulogd/ulogd_raw2packet_BASE.so"
plugin="/usr/lib/ulogd/ulogd_filter_IP2STR.so"
plugin="/usr/lib/ulogd/ulogd_filter_PRINTPKT.so"
plugin="/usr/lib/ulogd/ulogd_output_LOGEMU.so"
plugin="/usr/lib/ulogd/ulogd_filter_IFINDEX.so"
plugin="/usr/lib/ulogd/ulogd_output_SYSLOG.so"

stack=log1:NFLOG,base1:BASE,ifi1:IFINDEX,ip2str1:IP2STR,print1:PRINTPKT,emu1:LOGEMU
stack=log2:NFLOG,base1:BASE,ifi1:IFINDEX,ip2str1:IP2STR,print1:PRINTPKT,sys1:SYSLOG

[log1]
group=1

[log2]
group=2
numeric_label=1

[emu1]
file=/var/log/ulogd.syslogemu

iptablesの-j LOGな設定も以下のように変更

/bin/iptables -A KZ_DENY -j NFLOG --nflog-prefix="[Kazakhstan] " --nflog-group 2

今回はgroup2としてsyslogで吐かせているが、そこは自由にするとよいだろう

rsync コマンドの append オプションを resume に使うのは危ない

rsync  には--appendオプションがありますが、3.0.0からは挙動が変わっているようで、 append の動作を高速化するためにchecksumを取らなくなったようです。

3.0.0より前の --append と同じような挙動が必要な場合は、 --append-verify を使っておかないと、とてもひどい目にあうでしょう。

ですが、そもそも --append オプションは名前の通り追記するためのものであり、いろんなサイトで見かけるようなファイル転送のレジュームとは直接関係なく、不用意に使ってはいけません。

 

以下はrsyncのmanより

The use of --append can be dangerous if you aren't 100% sure that the files that are
longer have only grown by the appending of data onto the end. You should thus use
include/exclude/filter rules to ensure that such a transfer is only affecting files
that you know to be growing via appended data.

CentOS Source Repository


* CentOSのソースパッケージは http://vault.centos.org にあります
* CentOS上でソースパッケージを取得したいときは、yum-utilsパッケージに含まれる yumdownloaderを使うのが便利です
*
[base-src]
name=CentOS-6.6 - Base - Source
baseurl=http://vault.centos.org/6.6/os/Source/
gpgcheck=1
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-6

[updates-src]
name=CentOS-6.6 - Updates - Source
baseurl=http://vault.centos.org/6.6/updates/Source/
gpgcheck=1
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-6

[extras-src]
name=CentOS-6.6 - Extras - Source
baseurl=http://vault.centos.org/6.6/extras/Source/
gpgcheck=1
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-6

* yumdownloader –source httpd

zfs on linux


==== zpoolにくべるデバイス名について ====
* /dev/disk/by-id/* にしておくのが吉
* /dev/sdc とかでやってると、デバイス名が変わった時に悲しい思いをします
==== 付け替えたい場合 ====
*
$ sudo zpool export tank
$ sudo zpool import -d /dev/disk/by-id tank

directory quota on xfs filesystem


====== XFSファイルシステムにて、ディレクトリに対してQuota制限をかけたときのメモ ======
* XFSファイルシステムはディレクトリ単位でQuotaを設定することができます
* プロジェクトクォータというもので設定します
* プロジェクトクォータはグループクォータと同時に使用することはできません
* 設定
* ファイルシステムを pquotaオプション付きでマウントします
* /etc/projects と /etc/projid で マッピングを行います
* /etc/projects50:/data
* /etc/projidvirtual:50
* 次のように、同じProjectIDをもつものも設定できるようです50:/data/test1
50:/data/test2

* Grace Periodは次のように設定しますxfs_quota -x -c 'timer -p -b 1minutes'
* minutes(m), hours(h), days(d), weeks(w) を認識します
* Projectを設定しますxfs_quota -x -c 'project -s virtual'
* Project virtualに、使用量Quotaを設定
xfs_quota -x -c 'limit -p bsoft=1000m bhard=1200m virtual' /data

* 確認
* quota設定状態の出力[root@rc97 data]# xfs_quota -x -c 'state' /data
User quota state on /data (/dev/mapper/vg0-lv0)
Accounting: OFF
Enforcement: OFF
Inode: #18446744073709551615 (0 blocks, 0 extents)
Group quota state on /data (/dev/mapper/vg0-lv0)
Accounting: OFF
Enforcement: OFF
Inode: #131 (2 blocks, 2 extents)
Project quota state on /data (/dev/mapper/vg0-lv0)
Accounting: ON
Enforcement: ON
Inode: #131 (2 blocks, 2 extents)
Blocks grace time: [7 days 00:00:30]
Inodes grace time: [7 days 00:00:30]
Realtime Blocks grace time: [7 days 00:00:30]

* ユーザーコマンドでの確認[root@rc97 test2]# xfs_quota -c 'quota -v -p virtual' /data
Disk quotas for Project virtual (50)
Filesystem Blocks Quota Limit Warn/Time Mounted on
/dev/mapper/vg0-lv0 8 51200 102400 00 [--------] /data

* リポートを出力[root@rc97 data]# xfs_quota -x -c 'report -p' /data
Project quota on /data (/dev/mapper/vg0-lv0)
Blocks
Project ID Used Soft Hard Warn/Grace
---------- --------------------------------------------------
virtual 0 51200 102400 00 [--------]

* 使用量はsyncされてないと出力に反映されないようですね
* xfs_quotaコマンド
* -x で エキスパートモード
* 例: xfs_quota -x -c 'report -h' /data
* project -c (Checking)
* project -C (Clearing)
* project -s (Setting)

docker 0.7.2


* docker 0.7.2 がリリースされました
* https://github.com/dotcloud/docker/blob/master/CHANGELOG.md
* 以下の変更がはいったそうなので、追いかけてみました
* Drop capabilities from within dockerinit
* https://github.com/dotcloud/docker/pull/3015
* Set hostname and IP address from within dockerinit
* https://github.com/dotcloud/docker/pull/3201
* いままで、config.lxcで行っていた、Linux Capabilityのdropを、dockerinitで行うようになったようです。lxcのテンプレートからCapabilityの設定が消え、dockerinitコマンド内部でcapabilityのdropが行われるようになりました。
* それに伴い、ネットワークの設定とホスト名の設定も、dockerinitで行うようになったようです。dockerinitに引数でわたすようになりました。
* container.go

// Networking
if !container.Config.NetworkDisabled {
network := container.NetworkSettings
params = append(params,
"-g", network.Gateway,
"-i", fmt.Sprintf("%s/%d", network.IPAddress, network.IPPrefixLen),
)
}

OpenStackのKVMインスタンスにマウント出来るVolume数について


* 検証中のOpenStackのKVM InstanceにどれだけVolumeがAttachできるか調べてみたところ、/dev/vda から /dev/vdaa の 27個で頭打ちだった
* nova volume-attachコマンドでそれ以上attachしても特にエラーは帰ってこないが、実際にはInstanceにAttachされておらず、nova-compute.logにはlibvirtError: internal error No more available PCI addressesと吐き出されている
* そのInstance上でlspciしてみたらこんな感じ
00:00.0 Host bridge: Intel Corporation 440FX - 82441FX PMC [Natoma] (rev 02)
00:01.0 ISA bridge: Intel Corporation 82371SB PIIX3 ISA [Natoma/Triton II]
00:01.1 IDE interface: Intel Corporation 82371SB PIIX3 IDE [Natoma/Triton II]
00:01.2 USB controller: Intel Corporation 82371SB PIIX3 USB [Natoma/Triton II] (rev 01)
00:01.3 Bridge: Intel Corporation 82371AB/EB/MB PIIX4 ACPI (rev 03)
00:02.0 VGA compatible controller: Cirrus Logic GD 5446
00:03.0 Ethernet controller: Red Hat, Inc Virtio network device
00:04.0 SCSI storage controller: Red Hat, Inc Virtio block device
00:05.0 SCSI storage controller: Red Hat, Inc Virtio block device
00:06.0 RAM memory: Red Hat, Inc Virtio memory balloon
00:07.0 SCSI storage controller: Red Hat, Inc Virtio block device
00:08.0 SCSI storage controller: Red Hat, Inc Virtio block device
00:09.0 SCSI storage controller: Red Hat, Inc Virtio block device
00:0a.0 SCSI storage controller: Red Hat, Inc Virtio block device
00:0b.0 SCSI storage controller: Red Hat, Inc Virtio block device
00:0c.0 SCSI storage controller: Red Hat, Inc Virtio block device
00:0d.0 SCSI storage controller: Red Hat, Inc Virtio block device
00:0e.0 SCSI storage controller: Red Hat, Inc Virtio block device
00:0f.0 SCSI storage controller: Red Hat, Inc Virtio block device
00:10.0 SCSI storage controller: Red Hat, Inc Virtio block device
00:11.0 SCSI storage controller: Red Hat, Inc Virtio block device
00:12.0 SCSI storage controller: Red Hat, Inc Virtio block device
00:13.0 SCSI storage controller: Red Hat, Inc Virtio block device
00:14.0 SCSI storage controller: Red Hat, Inc Virtio block device
00:15.0 SCSI storage controller: Red Hat, Inc Virtio block device
00:16.0 SCSI storage controller: Red Hat, Inc Virtio block device
00:17.0 SCSI storage controller: Red Hat, Inc Virtio block device
00:18.0 SCSI storage controller: Red Hat, Inc Virtio block device
00:19.0 SCSI storage controller: Red Hat, Inc Virtio block device
00:1a.0 SCSI storage controller: Red Hat, Inc Virtio block device
00:1b.0 SCSI storage controller: Red Hat, Inc Virtio block device
00:1c.0 SCSI storage controller: Red Hat, Inc Virtio block device
00:1d.0 SCSI storage controller: Red Hat, Inc Virtio block device
00:1e.0 SCSI storage controller: Red Hat, Inc Virtio block device
00:1f.0 SCSI storage controller: Red Hat, Inc Virtio block device

* PCIのデバイス番号は0x00 – 0x1fまでなので、それにあたってるのねー
* ついでにQemuのPCIについてみておく
* hw/pci/pci.c
* PCIは[[:]:].という感じに表記される
/*
* Parse [[:]:], return -1 on error if funcp == NULL
* [[:]:]., return -1 on error
*/
int pci_parse_devaddr(const char *addr, int *domp, int *busp,
unsigned int *slotp, unsigned int *funcp)
{

* domainは0以外はうけつけない – PCIBus *pci_get_bus_devfn(int *devfnp, PCIBus *root, const char *devaddr)
if (dom != 0) {
fprintf(stderr, "No support for non-zero PCI domains\n");
return NULL;
}

* bus,slot,funcの値についての制限
if (dom > 0xffff || bus > 0xff || slot > 0x1f || func > 7)
return -1;

* さて、QemuでPCIバスを増やすことはできるんだろうか?