2019/10/23

OpenMPを使用した並列化

背景


OpenMPを利用して並列化を行い、処理を高速化する必要が出てきたため、OpenMPで並列化処理を記述する方法について記述する

記事の目的


OpenMPで並列化処理を行う際のテンプレートを作成する

OpenMP


ここでは、OpenMPを利用したCプログラムの記述方法について記載する。

OpenMPとは

OpenMP
OpenMPは、OpenMP ARBが提供する並列コンピューティング環境において共有メモリのマルチスレッド処理をサポートするために開発されたAPIである。

利点

  • マルチスレッド並列なプログラムをディレクティブを挿入するだけで実現できる
  • gccなどで標準サポートされており、導入が容易である

テンプレート

OpenMPを利用して並列処理を行うテンプレートを記載する。


// CMakeLists.txt に追記
# For OpenMP
find_package(OpenMP REQUIRED)
if(OpenMP_FOUND)
    message(STATUS "Use OpenMP")
    set(CMAKE_C_FLAGS "${CMAKE_C_FLAGS} ${OpenMP_C_FLAGS}")
    set(CMAKE_CXX_FLAGS "${CMAKE_CXX_FLAGS} ${OpenMP_CXX_FLAGS}")
endif()

// openmp_sample_code.cpp
#include <iostream>
#ifdef _OPENMP
// ヘッダーファイルをインクルード
#include <omp.h>
#endif
int main()
{
#ifdef _OPENMP
    // スレッド数を設定(今回は4スレッド)
    omp_set_num_threads(4);
#endif
#ifdef _OPENMP
    // スレッド数取得
    std::cout << "The number of processors is "<< omp_get_num_procs() << std::endl;
#endif
#ifdef _OPENMP
    // ここから並列処理を行う
    // 【注】カッコ内の処理は、スレッド数回実行される
    #pragma omp parallel
#endif
    {
        int a = 0, b= 0;
#ifdef _OPENMP
        // section毎に並列処理を行う
        #pragma omp sections
#endif
        {
#ifdef _OPENMP
            #pragma omp section
#endif
            {
                // 並列化される処理 1
                a ++; 
            }
#ifdef _OPENMP
            #pragma omp section
#endif 
            {
                // 並列化される処理 2
                b ++; 
            }
        }
#ifdef _OPENMP
        // ここまでの並列処理が完了するまで待機
        #pragma omp barrier
        // シングルスレッド処理
        // 【注】マルチスレッド処理内におけるプライベート変数は引き継がれない場合がある
        //  このコードでは、aまたはbのどちらかが0になる
        #pragma omp single
#endif
        {
            std::cout << "a=" << a << std::endl;
            std::cout << "b=" << b << std::endl;
        }
    }
    size_t i;
    int c = 0;
    int sum = 0;
#ifdef _OPENMP
    // forループを並列化
    // 【注】 #pragma omp parallel内で#pragma omp parallel forすると、2重に並列化するため注意
    //     上記の場合、#pragma omp parallel forを#pragma omp forとする
    // iを各スレッドのプライベート変数に指定
    // 並列化した際にスレッドをを静的(static)に割り当て、チャンクサイズを2に指定
    //        (この場合、i=0,1,4,5,...とi=2,3,6,7,...でスレッドが作られる)
    //        (動的に割り当てる場合はdynamicとする。ただし、スレッド生成コストが増大する)
    // sumは、i*iの処理が並列で行われた後、+=の処理がまとめて行われる
    // orderedは、forループ内にorderedセクションがあることを示す
    #pragma omp parallel for private(i) schedule(static, 2) reduction(+, sum) ordered
#endif 
    for(i = 0; i < 10; ++i)
    {
       sum += i*i;
#ifdef _OPENMP
        // criticalセクション内は、最大で1つのスレッドしか実行されない
        // ただし、スレッド待ちの処理コストが発生する
        #pragma omp critical
#endif
        {
            c += i*i;
            std::cout << "c=" << c << std::endl;
        }
#ifdef _OPENMP
        // orderedセクション内は、順番に実行される
        #pragma omp ordered
#endif
        {
            std::cout << "i=" << i << std::endl;
        }
        std::cout << "sum=" << sum << std::endl;
    }
}

まとめ


  • OpenMPでプログラミングをする際のテンプレートを調査、記載した

参考文献



変更履歴


  1. 2019/10/23: 新規作成
  2. 2019/12/15: コード修正

2019/10/19

特許作成方法のフレームワーク

背景


仕事の中で特許作成を行っているが、アイディア構想から明細書作成までの進め方が定まっておらず、無駄に時間がかかっていた。特許作成の工数削減を削減するため、フレームワークを構築する。

記事の目的


特許作成のフレームワークを策定する

特許作成のフレームワーク


ここでは、特許作成のフレームワークに関する説明について記載する。下記の5ステップで特許創出を行う。

1. 特許に必要な要素の確認

まず、特許創出を開始するにあたり、留意点に関して確認する。特許を創出する際、以下の2つのポイントを意識する。
  • 新規性
  • 新規性は、内容が以下の3項目を満たすことを指す
    • 出願の時点で、守秘義務がない人に知られていない発明であること
    • 出願の時点で、工場見学や報道発表などの公開された場所で実施されていない発明であること
    • 出願の時点で、学会誌、論文、特許などの刊行物や、インターネット上で公開されていない発明であること
  • 進歩性
  • 進歩性は、内容が以下の6項目を満たすことを指す
    • 既存技術に対する最適材料の選択や設計変更に関する発明でないこと
    • 既存技術を組み合わせた発明でないこと
    • 課題に対して既存技術の適用を行った発明でないこと
    • 解く課題が既存の発明と共通している発明でないこと
    • 既存技術と共通の作用や機能を有した発明でないこと
    • 引用文献内に内容の一部が含まれている発明でないこと

2. アイディアの創出

ここでは、アイディアの創出方法について記載する。特許のアイディアを考える際、下記の項目に関して箇条書きで記載する。下記項目に漏れがあると、実用的でないものになる可能性がある。
  1. 背景
  2. 発明を行う分野、領域での実情やトレンドに関して記述する。
    (例) 紙に字を書く道具として、鉛筆が普及している。
  3. 課題
  4. 発明により解きたい課題について記述する。課題が簡潔に記述できるものであるほど、実用性が高い可能性がある。
    (例) 現在の鉛筆は円柱型であり、傾いた机の上に置くと転がって机から落ちやすい問題がある。
  5. 目的
  6. 発明の目的(作用や機能)について記述する。目的も簡潔に記述できるものほど、実用性が高い可能性がある。
    (例) 鉛筆を転がらないようにする。
  7. 方法
  8. 目的を実現するための手法について、具体的に記述する。
    (例) 鉛筆を角型にする。

後のステップで90%以上が没になるため、思いつく限り多くアイディアを創出する。

3.先行特許の調査

ここでは、先行特許の調査方法について記載する。ここで、思いついたアイディアが既出ではないことを確認する。
  1. 先行特許の検索
  2. J-PlatPat等を使用し、関連キーワードなどで先行特許の検索を行う。 この時、検索結果の特許数が100-200件になるように調整する。これは、絞り込み過ぎると関連特許を見落とす可能性があり、逆に多すぎると確認工数が掛かり過ぎるためである。
  3. 1次スクリーニング
  4. 検索結果の特許全てに対して、請求項と図面のみを確認して関連特許であるかを確認する。この時、判定できないものは関連特許とみなす。
  5. 2次スクリーニング
  6. 1次スクリーニング結果、関連特許とみなしたものに対して、実施例を確認し関連特許であるかを確認する。
  7. 新規性・進歩性の確認
  8. 関連特許とアイディアを比較し、「課題」、「目的」、「方法」の3項目で新規性、進歩性があるか確認する。この時、アイディアが関連特許の問題点を解決するものであれば、「課題」にこの特許を記述する。

4.請求項の作成

ここでは、請求項の作成方法について記載する。
  1. アイディアの分解
  2. IT関連の特許の場合、処理のフローチャートやシステムの構成図を作成し、アイディアを要素毎に分解する。
  3. 進歩性の明確化
  4. アイディアの各要素に対して、関連特許との比較を行い、進歩性のある要素を絞り込む。進歩性のある要素が少ないほど、普遍性が増すため特許としての価値が向上する。
  5. 要素の並べ替え
  6. アイディアの要素を必要性順に並べ替える。特許化する際は、要素数を減らしたほうが普遍性が増すため、特許の価値が向上する。
  7. 請求項の作成
  8. アイディアの要素のうち必須な要素(進歩性がある要素と必要性が高い要素)を1項に記載し、2項目以降に必要性順に要素を記述する。

5.実施例の作成

ここでは、実施例の作成方法について記載する。実施例には、実際に実装する場合の処理などを記載する。
  1. 図表の作成
  2. 発明を実施に関する図や絵、写真を作成する。図を用いることで発明の内容が理解しやすくなる。また、UI関連の特許の場合、図は必須である。
  3. アイディアの具体化
  4. アルゴリズムやIO、データ形式などを詳細に記載する。
  5. バリエーションの作成
  6. 実施例は、考えられるパターンをより多く記述する。特にUI関連の特許の場合は、表示方式のバリエーションを網羅するように図を作成する。

まとめ


  • 特許作成の一連の流れについて記載した

参考文献



変更履歴


  1. 2019/10/19: 新規作成

2019/09/29

perfを用いたシステムのボトルネック解析方法

背景


システムの処理速度を改善するために、ボトルネック解析を行う必要があった。
ボトルネック解析の方法と、プロファイリングに使用したperfの使用方法に関して調査を行った。

記事の目的


perfを使用し、ボトルネック解析を行う

perf


ここでは、perfの導入方法及び使用方法について記載する。

perfとは

perf(Performance analysis tools for Linux)とはLinuxカーネル2.6.31以降で使用可能なLinuxの性能解析ツールである。
実行されているプロセス毎のCPU使用率やプロセス内で呼ばれている関数の割合などを調査できる。

利点

  • gprofのように、プログラム作成時に専用のライブラリを入れたり、コンパイル時にオプションをつける必要がない
  • フレームグラフにして、ビジュアライズできる

導入方法(Ubuntu編)

Ubuntu16.04へperfを導入する手順について記載する。
  1. OSのカーネルバージョンを調べる
  2. $ uname -a
    Linux emptySet 4.4.0-116-generic #140-Ubuntu SMP Mon Feb 12 21:23:04 UTC 2018 x86_64 x86_64 x86_64 GNU/Linux
    上記の場合、カーネルバージョンは「4.4.0-116-generic」である。
  3. 上記カーネルバージョンのlinux-toolsパッケージをインストールする
  4. $ sudo apt install linux-tools-<カーネルバージョン>

使用方法

perfの使用方法は、下記の通りである。

  • コマンド内のボトルネック解析を行う場合
    1. perfで記録しながらコマンドを実行する
    2. $ perf record コマンド
      デフォルトで、記録結果ファイル「perf.data」が作成される。(-o [ファイル名.data]オプションでファイル名指定可能)
    3. perfで記録したファイルの内容を表示する(-i [ファイル名.data]オプションでファイル名指定可能)
    4. $ perf report
      例: ring_buffer_sample(l.148をbuf.setBufferSize(1000);に変更した)の場合
      Samples: 44  of event 'cpu-clock', Event count (approx.): 11000000
      Overhead  Command          Shared Object       Symbol
        11.36%  ring_buffer_sam  libc-2.23.so        [.] vfprintf
         9.09%  ring_buffer_sam  libc-2.23.so        [.] __GI___libc_write
         6.82%  ring_buffer_sam  libc-2.23.so        [.] _IO_file_xsputn@@GLIBC_2.2.5
         6.82%  ring_buffer_sam  [unknown]           [k] 0xffffffff8184e9b5
         6.82%  ring_buffer_sam  [unknown]           [k] 0xffffffff8184ef5a
         4.55%  ring_buffer_sam  ring_buffer_sample  [.] std::mutex::unlock
         4.55%  ring_buffer_sam  [unknown]           [k] 0xffffffff81508f2b
         2.27%  ring_buffer_sam  libc-2.23.so        [.] _IO_file_write@@GLIBC_2.2.5
         2.27%  ring_buffer_sam  libc-2.23.so        [.] fprintf
         2.27%  ring_buffer_sam  ring_buffer_sample  [.] RingBuffer::getBufferSize
         2.27%  ring_buffer_sam  ring_buffer_sample  [.] main
         2.27%  ring_buffer_sam  ring_buffer_sample  [.] std::mutex::lock
         2.27%  ring_buffer_sam  [unknown]           [k] 0xffffffff810031e8
         2.27%  ring_buffer_sam  [unknown]           [k] 0xffffffff81087b91
         2.27%  ring_buffer_sam  [unknown]           [k] 0xffffffff8109b061
         2.27%  ring_buffer_sam  [unknown]           [k] 0xffffffff8109b069
         2.27%  ring_buffer_sam  [unknown]           [k] 0xffffffff811c3b76
         2.27%  ring_buffer_sam  [unknown]           [k] 0xffffffff81213c9a
         2.27%  ring_buffer_sam  [unknown]           [k] 0xffffffff81214ba0
         2.27%  ring_buffer_sam  [unknown]           [k] 0xffffffff8140cbaf
         2.27%  ring_buffer_sam  [unknown]           [k] 0xffffffff8140cbb3
         2.27%  ring_buffer_sam  [unknown]           [k] 0xffffffff8140dee9
         2.27%  ring_buffer_sam  [unknown]           [k] 0xffffffff8150410d
         2.27%  ring_buffer_sam  [unknown]           [k] 0xffffffff8150420f
      For a higher level overview, try: perf report --sort comm,dso
      上記の例の場合、vfprintf(標準出力)が処理量の11%を占めているため、標準出力を減らすことが高速化に有効であることがわかる。
  • システム全体のボトルネック解析を行う場合
    1. perfで記録する
    2. $ sudo perf record -ag
    3. perfで記録したファイルの内容を表示する
    4. $ perf report
      例: ring_buffer_sample(l.148をbuf.setBufferSize(100000);に変更した)を実行した状態で取得した場合
      Samples: 181K of event 'cpu-clock', Event count (approx.): 45387500000
      Overhead  Command          Shared Object                Symbol
        59.48%  swapper          [kernel.kallsyms]            [k] 0xffffffff810656d6
         1.98%  ring_buffer_sam  [kernel.kallsyms]            [k] 0xffffffff8109b061
         0.91%  compiz           [kernel.kallsyms]            [k] 0xffffffff810031e8
         0.85%  gnome-terminal-  [kernel.kallsyms]            [k] 0xffffffff8109d9e0
         0.83%  gnome-terminal-  libglib-2.0.so.0.4800.2      [.] g_string_insert_uni
         0.80%  gnome-terminal-  [kernel.kallsyms]            [k] 0xffffffff810031e8
         0.76%  compiz           libX11.so.6.3.0              [.] 0x0000000000026e60
         0.65%  gnome-terminal-  libglib-2.0.so.0.4800.2      [.] g_utf8_get_char
         0.57%  compiz           libX11.so.6.3.0              [.] 0x0000000000026e62
         0.57%  compiz           libX11.so.6.3.0              [.] 0x0000000000026f22
         0.57%  kworker/u8:2     [kernel.kallsyms]            [k] 0xffffffff8109c9fa
         0.54%  compiz           libX11.so.6.3.0              [.] 0x0000000000026f20
         0.45%  ring_buffer_sam  [kernel.kallsyms]            [k] 0xffffffff810ac14d
         0.44%  gnome-terminal-  libglib-2.0.so.0.4800.2      [.] g_string_append_uni
         0.42%  ring_buffer_sam  libc-2.23.so                 [.] vfprintf
         0.41%  ring_buffer_sam  [kernel.kallsyms]            [k] 0xffffffff8184ef5a
         0.41%  ring_buffer_sam  [kernel.kallsyms]            [k] 0xffffffff8184e9b5
         0.41%  ring_buffer_sam  libc-2.23.so                 [.] __GI___libc_write
         0.38%  ring_buffer_sam  libc-2.23.so                 [.] _IO_file_xsputn@@GL
         0.37%  kworker/u8:1     [kernel.kallsyms]            [k] 0xffffffff8109c9fa
         0.36%  gnome-terminal-  libvte-2.91.so.0.4200.5      [.] 0x00000000000135b2
      For a higher level overview, try: perf report --sort comm,dso
      上記の例の場合、swapper(スワッピング処理)が処理量の60%を占めているため、メモリの利用率をチェックする必要がある。
  • フレームグラフでボトルネック解析結果を可視化する場合
    1. フレームグラフ作成用のスクリプトをダウンロードする
    2. $ wget https://raw.githubusercontent.com/brendangregg/FlameGraph/master/stackcollapse-perf.pl
      $ wget https://raw.githubusercontent.com/brendangregg/FlameGraph/master/flamegraph.pl
    3. perfで記録する
    4. $ sudo perf record -ag
    5. perfで記録したファイルからフレームグラフを作成する
    6. $ sudo perf script> perf_data.txt
      $ perl stackcollapse-perf.pl perf_data.txt|perl flamegraph.pl > flamegraph.svg
      例: ring_buffer_sample(l.148をbuf.setBufferSize(100000);に変更した)を実行した状態で取得した場合
      firefox ./flamegraph.svg
      flamegraph
      フレームグラフでは、関数名で左から右にソートされており、コールスタックは上に行くほど深くなる。 一番上で横幅が広い関数がCPUを長く使っているため、ボトルネックになっている。
  • timechartを取得する場合
    1. perfで記録する
    2. $ sudo perf timechart record
    3. perfで記録した結果ファイルをsvgファイル(タイムチャート)として出力する(-p [pid or プロセス名]オプションで特定のプロセスのみを抜き出せる)
    4. $ sudo perf timechart -o timechart.svg
      例: ring_buffer_sample(l.148をbuf.setBufferSize(100000);に変更した)を実行した状態で取得した場合
      $ firefox ./timechart.svg
      timechart
      上記ファイルの上半分がCPUの情報、下半分が実行されているプロセスの情報である。 各CPUの使用率のタイムチャートや、各プロセスの処理タイミングなどが分かる。 CPUに無駄なアイドル時間(Idle)がある場合や、プロセスにCPU待ち時間(Waiting CPU)や無駄な読み書き待ち時間(Blocked on IO)がある場合、処理系の最適化を図る必要がある。

その他コマンド一覧

  • perf top
  • リアルタイムに関数単位でcpu使用率を閲覧できる
    $ perf top
    ---------------------------------------------------------------------------
      PerfTop:     260 irqs/sec  kernel:61.5%  exact:  0.0% [1000Hz
    cycles],  (all, 2 CPUs)
    ---------------------------------------------------------------------------
    
                samples  pcnt function                       DSO
                _______ _____ ______________________________ __________________
    
                  80.00 23.7% read_hpet                      [kernel.kallsyms]
                  14.00  4.2% system_call                    [kernel.kallsyms]
                  14.00  4.2% __ticket_spin_lock             [kernel.kallsyms]
                  14.00  4.2% __ticket_spin_unlock           [kernel.kallsyms]
                   8.00  2.4% hpet_legacy_next_event         [kernel.kallsyms]
                   7.00  2.1% i8042_interrupt                [kernel.kallsyms]
                   7.00  2.1% strcmp                         [kernel.kallsyms]
                   6.00  1.8% _raw_spin_unlock_irqrestore    [kernel.kallsyms]
    ...
  • perf list
  • 指定可能なイベントの一覧を表示できる
    $ perf list
    
    List of pre-defined events (to be used in -e):
    
     cpu-cycles OR cycles                       [Hardware event]
     instructions                               [Hardware event]
     cache-references                           [Hardware event]
     cache-misses                               [Hardware event]
     branch-instructions OR branches            [Hardware event]
     branch-misses                              [Hardware event]
     bus-cycles                                 [Hardware event]
    ...
  • perf stat
  • 実行したコマンドのパフォーマンスカウンターが閲覧できる
    $ perf stat - make -j
    
    Performance counter stats for 'make -j':
    8117.370256  task clock ticks     #      11.281 CPU utilization factor
            678  context switches     #       0.000 M/sec
            133  CPU migrations       #       0.000 M/sec
         235724  pagefaults           #       0.029 M/sec
    24821162526  CPU cycles           #    3057.784 M/sec
    18687303457  instructions         #    2302.138 M/sec
      172158895  cache references     #      21.209 M/sec
       27075259  cache misses         #       3.335 M/sec
    Wall-clock time elapsed:   719.554352 msecs

備考

  • Symbolが16進数標記で読めない場合、addr2lineコマンドで関数名を確認できる場合もある

まとめ


  • perfを使用し、ボトルネック解析を行う方法について調査、記載した

参考文献



変更履歴


  1. 2019/09/29: 新規作成
  2. 2020/05/04: コマンド一覧追加

2019/09/26

CUDAの導入方法(Ubuntu編)

背景


GPUで並列処理を行うために、CUDAの導入が必要となった。

記事の目的


UbuntuにCUDAを導入する

CUDA


ここでは、CUDAの導入方法について記載する。

CUDAとは

CUDAは、nvidia社が提供する並列処理ライブラリである。

利点

  • 実装に関する情報が豊富である
  • TensorflowやOpenCVなど、機械学習や画像処理に関するツールはが基本的に対応している
  • C言語ライクな記述でプログラミングできる

導入方法

OSやマシンにあったCUDAのインストーラ方法は、公式ページから調べることができる。
今回は、Ubuntu16.04へCUDAを導入する手順について記載する。
  1. CUDAのアーカイブをダウンロードし、aptに登録する
  2. $ wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu1604/x86_64/cuda-ubuntu1604.pin
    $ sudo mv cuda-ubuntu1604.pin /etc/apt/preferences.d/cuda-repository-pin-600
  3. OSやマシンにあった承認キーをダウンロードページから探す(今回は、/ubuntu1604/x86_64/7fa2af80.pub)
  4. 承認キーをダウンロードする
  5. $ sudo apt-key adv --fetch-keys http://developer.download.nvidia.com/compute/cuda/repos/ubuntu1604/x86_64/7fa2af80.pub
  6. CUDAのレポジトリを登録する
  7. $ sudo add-apt-repository "deb http://developer.download.nvidia.com/compute/cuda/repos/ubuntu1604/x86_64/ /"
  8. CUDAをインストールする
  9. $ sudo apt-get update
    $ sudo apt-get -y install cuda
  10. PCを再起動する
  11. $ sudo reboot

CUDAのサンプルプログラム

CUDAのサンプルプログラムのmake方法は、下記の通りである。
$ /usr/local/cuda-10.1/bin/cuda-install-samples-10.1.sh ~
$ cd ~/NVIDIA_CUDA-10.1_Samples
$ make
上記の場合、~/NVIDIA_CUDA-10.1_Samples内にサンプルプログラムの実行ファイルが作成される。

アンインストール方法

CUDAのアンインストール方法について記載する。
$ sudo apt remove cuda-10-1
$ sudo apt autoremove
$ sudo apt remove libcudnn7 libcudnn7-dev libcudnn7-doc
$ rm -rfv ~/NVIDIA_CUDA-10.1_Samples/

まとめ


  • UbuntuにCUDAを導入する方法ついて調査、記載した

参考文献



変更履歴


  1. 2019/09/26: 新規作成

2019/09/24

NvidiaGPUの温度を取得するスクリプトを作成(Linux)

背景


GPUを搭載したPCでのソフトウェアのヒートランを行った際、GPUの温度をモニタリングする必要があったため、スクリプトを作成した。

記事の目的


NvidiaGPUの温度を取得するスクリプトを作成する

nvidia-smi


ここでは、NvidiaGPUの温度を取得するスクリプトの記述方法について記載する。

スクリプトの作成方法

スクリプトの作成方法は以下の通りである。
  1. スクリプトgpu_temperature_monitoring.shを作成する
  2. #!/bin/bash
    echo "Start to record GPU temperature!"
    DIR_NAME=~/gpu_temperature_log/`date +%Y%m%d`
    LOG_NAME=./`date +%Y%m%d_%H%M%S`_gpu_temperature.log
    mkdir -p $DIR_NAME
    cd $DIR_NAME
    echo "Date,Temperature[C]" >> $LOG_NAME
    while :
    do
        nvidia-smi --query-gpu=temperature.gpu --format=csv,noheader,nounits | awk '{ "date +\"%Y/%m/%d %T\"" | getline var; print var "," $0 }' >> $LOG_NAME
        sleep 1
    done
    exit 0
  3. スクリプトに実行権限を与える
  4. $ chmod 777 ./gpu_temperature_monitoring.sh 

スクリプトの実行方法

実行方法は以下の通りである。
$ ./gpu_temperature_monitoring.sh
Start to record GPU temperature!
~/gpu_temperature_monitoring_log/日付/にGPU温度のログが作成される
$ less ./gpu_temperature_log/20190923/20190923_234227_gpu_temperature.log
Date,Temperature[C]
2019/09/23 23:42:27,51
2019/09/23 23:42:28,51
2019/09/23 23:42:29,51
2019/09/23 23:42:30,52

まとめ


  • NvidiaGPUの温度を取得するスクリプトを作成した

参考文献



変更履歴


  1. 2019/09/24: 新規作成

2019/09/21

UbuntuへのJupyter notebookの導入方法

背景


仕事で、データ解析や機械学習の学習環境用に可読性の高いプログラミング環境を構築する必要があった。


記事の目的


Jupyter notebookを導入する

Jupyterの導入


ここでは、Jupyter notebookの導入方法と使用方法について記載する。

Jupyter notebookとは

Jupyter notebook
Jupyter notebookとはブラウザ上で実行し、実行結果を記録しながらプログラミングを進めるためのツールである。データ分析の現場や、研究機関などでも頻繁に使われている。

利点

  • PythonやRubyなど多様な言語に対応している
  • markdownでメモ、コメントが記述できる
  • グラフや表を表示できる

導入方法

Jupyter notebookの導入手順は、下記の通りである。

Pyenv+Anacondaの場合

  1. Pyenvを導入する
  2. 最新のAnaconda (Python3系) のバージョンを確認する
  3. $ pyenv install -l | grep anaconda3
      anaconda3-2.0.0
      anaconda3-2.0.1
      anaconda3-2.1.0
      anaconda3-2.2.0
      anaconda3-2.3.0
      anaconda3-2.4.0
      anaconda3-2.4.1
      anaconda3-2.5.0
      anaconda3-4.0.0
      anaconda3-4.1.0
  4. 最新のAnaconda (ここでは4.1.0) をインストールし、デフォルトとして設定する
  5. $ pyenv install anaconda3-4.1.0
    $ pyenv global anaconda3-4.1.0
    $ echo 'export PATH="$PYENV_ROOT/versions/anaconda3-4.1.0/bin:$PATH"' >> ~/.bashrc
    $ echo 'alias activate="source $PYENV_ROOT/versions/anaconda3-4.1.0/bin/activate"' >> ~/.bashrc
    $ source ~/.bashrc
  6. Pythonの環境を確認する
  7. $ python --version
    Python 3.5.1 :: Anaconda 4.1.0 (64-bit)

pipで直接インストールする場合

  1. 必要なパッケージをインストールする
  2. $ pip install numpy
    $ pip install scipy
    $ pip install matplotlib
    $ pip install Pillow
    $ pip install ipython[all]
  3. Jupyter Notebookをインストールする
  4. $ pip install jupyter

使用方法

Jupyter notebookの使用手順は、下記の通りである。
  1. ターミナル上で下記を実行する
  2. $ jupyter notebook

備考

  • matplotlibのグラフをインラインで表示するためには、はじめに下記を記述する
  • %matplotlib inline
    import matplotlib.pyplot as plt


まとめ


  • Jupyterの導入方法について調査、記載した

参考文献



変更履歴


  1. 2019/09/21: 新規作成

2019/09/19

黒画面でカーソルが点滅し、OSが起動しない場合の対処方法

背景


クローンしたUbuntuをIntel NUC上で起動させようとした際に、黒画面でカーソルが点滅した状態となり、OSが起動しない現象が生じた。

記事の目的


Boot Repairでブートローダーの問題を修復し、OSが起動できるようにする

Boot Repair


ここでは、Boot Repairでブートローダーの問題を修復する方法について記載する。

修復手順

Boot Repairでブートローダーの問題を修復する方法は以下の通りである。
  1. Ubuntuをメディアブートで起動する(言語は必ず「英語」を選択。日本語を選択すると、後述のBoot Repairがインストールできない場合がある)
  2. Boot Repairをインストールする
  3. [Ctrl]+[ALT]+[t]キーの同時押しでターミナルを立ち上げ、下記を入力する。
    $ sudo add-apt-repository ppa:yannubuntu/boot-repair
    $ sudo apt update
    $ sudo apt install -y boot-repair
  4. デスクトップ画面左上の「Activities」をクリックし、「Boot Repair」を検索、実行する
  5. 「Recommended repair」ボタンをクリックし、修復を実行する
  6. Boot Repair

まとめ


  • Boot Repairでブートローダーの問題を修正する方法について調査、記載した

参考文献



変更履歴


  1. 2019/09/19: 新規作成
  2. 2020/05/07: 修復手順に画像追加

2019/09/17

Xvfbで仮想ディスプレイを作成する方法

背景


映像出力の無い状況下で、WebRTCといった映像系のWebアプリケーションを動作させようとすると、正常に動作しない場合があったため、仮想ディスプレイを作成する方法を調査した。

記事の目的


Xvfbで仮想ディスプレイを作成し、アプリケーションの映像出力を仮想ディスプレイに設定する

Xvfb


ここでは、Xvfbで仮想ディスプレイを作成する方法について記載する。

Xvfbの導入方法

Xvfbの導入方法は以下の通りである。
  1. xvfbをapt installする
  2. $ sudo apt install xvfb 
  3. Ubuntu起動時にxvfbを自動起動するように設定する
  4. $ sudo nano /etc/rc.local
    ...
    Xvfb :99 -ac -screen 0 1024x768x16 &
    exit 0
    
    上記の設定で、ディスプレイ番号99が仮想ディスプレイとして設定される。
  5. PCを再起動する

仮想ディスプレイを映像出力先としてアプリケーションを実行する方法

実行方法は以下の通りである。(例としてFirefoxを使用)
$ env DISPLAY=:99.0 firefox

備考

  • 描画処理は動いているため、その分CPU(GPU)リソースは消費される

まとめ


  • Xvfbで仮想ディスプレイを作成した

参考文献



変更履歴


  1. 2019/09/17: 新規作成

2019/09/14

Kerasの導入方法

背景


仕事で、ディープラーニングのモデルを学習させ、結果をエッジに組み込む必要が出てきた。ここでは、モデルの学習環境構築の方法について記載する。

記事の目的


Kerasを導入する

Kerasの導入


ここでは、Kerasの導入方法と使用方法について記載する。

Kerasとは

Keras
KerasはPythonで書かれた、TensorFlowまたはCNTK,Theano上で実行可能な高水準のニューラルネットワークライブラリである。

利点

  • pipで簡単に導入できる
  • Tensorflowと比べて学習コストが小さい
  • 学習モデルをTensorflowなどに移植可能

導入方法

Kerasの導入手順は、下記の通りである。(GPU対応版)
  1. CUDAをインストールする(現時点では、CUDA10.0)
  2. cuDNNをインストールする(要ユーザ登録)
  3. Python 3.6をインストールする
  4. tensorflow-gpuをインストールする
  5. $ pip install tensorflow-gpu
  6. Kerasをインストールする
  7. $ pip install keras
GPU版のTensorflowが動作しているかは、下記で確認できる。
$ python
>>> from tensorflow.python.client import device_lib
>>> device_lib.list_local_devices()
...
[name: "/device:CPU:0"
device_type: "CPU"
memory_limit: XXXXXXXXX
locality {
}
incarnation: 10479716717325198190
, name: "/device:GPU:0"
device_type: "GPU"
memory_limit: XXXXXXXXXX
locality {
  bus_id: 1
  links {
  }
}
incarnation: 3656906984786649108
physical_device_desc: "device: 0, name: GeForce GTX XXX XGB, pci bus id: 0000:01:00.0, compute capability: X.X"
]
CPU版の場合、GPUに関する記述がない。

使用方法

Kerasの使用手順は、下記の通りである。
$ python
>>> import keras
Using TensorFlow backend.

まとめ


  • Kerasの導入方法について調査、記載した

参考文献



変更履歴


  1. 2019/09/14: 新規作成

2019/09/12

google testでrosパッケージの単体テストを行う方法

背景


rosパッケージを作成する際に、品質担保のために通常単体テストを行う。
googleテストの使用方法やCMakeListsの書き方を備忘録として記載する。

記事の目的


google testでrosパッケージの単体テストを行う

google test


google testでrosパッケージの単体テストを行う方法について記載する。

google testとは

google testは、google社が提供するオープンソースのテストフレームワークである。

特徴

  • マクロを使用してテストケースを容易に記述できる
  • rosの標準のテストフレームワークである

テンプレートのパッケージ構成

google testでrosパッケージの単体テストを行うrosパッケージの構成を記載する。
$ tree
.
├── CMakeLists.txt -> /opt/ros/kinetic/share/catkin/cmake/toplevel.cmake
└── sample_pkg                # google testでテストを行うサンプルパッケージ
     ├── CMakeLists.txt       # CMakeListsファイル
     ├── include
     │   └── sample_pkg
     │       └── sample.hpp  # headerファイル
     ├── launch
     │   └── sample.launch   #(オプション)launchファイル
     ├── package.xml          # Packageファイル
     ├── src
     │   ├── main.cpp        # ソースファイル(main関数のみ)
     │   └── sample.cpp      # ソースファイル(その他関数, クラス)
     └── test
          └── utest.cpp       # 単体テストファイル

テンプレートのheaderファイルとソースファイル

テンプレートのheaderファイルとソースファイルを記載する。
// sample.hpp
#include <ros/ros.h>

namespace sample
{
    int  func1(int a, int b);
    bool func2(int c, int d);
    class class3
    {
        public:
            class3();
            ~class3();
            void func4(int e);
            void func5(int &f);
        protected:
            int internal_variable_ = 0;
    };
};

// sample.cpp
#include <sample_pkg/sample.hpp>

int sample::func1(int a, int b)
{
    return a+b;
}

bool sample::func2(int a, int b)
{
    if (a == b)
    {
        return true;
    }
    return false;
}

sample::class3::class3()
{}

sample::class3::~class3()
{}

void sample::class3::func4(int e)
{
    internal_variable_ = e;
}

void sample::class3::func5(int &f)
{
    f = internal_variable_;
}

// main.cpp
#include <sample_pkg/sample.hpp>

int main(int argc, char **argv){
    int A = sample::func1(1,3);
    
    return A;
}


テンプレートの単体テストファイル

テンプレートの単体テストファイルを記載する。
// utest.cpp
#include <sample_pkg/sample.hpp>
#include <gtest/gtest.h>

// sample::func1のテスト
TEST(Factorial1Test, func1Test)
{
    int A = sample::func1(1,2);
    EXPECT_EQ(3, A); // A == 3 かチェック
}

// sample::func2のテスト
TEST(Factorial2Test, func2Test)
{
    EXPECT_TRUE(sample::func2(1,1)); // a == bの時、戻り値がtrueかチェック
    EXPECT_FALSE(sample::func2(1,2)); // a != bの時、戻り値がfalseかチェック
}

// sample::class3のテスト
TEST(Class3Test, func4_5Test1)
{
    sample::class3 c;
    int a;
    c.func5(a);
    EXPECT_EQ(0, a); // 初期状態でc.func5(a)のa==0かチェック
}

// sample::class3のテスト
TEST(Class3Test, func4_5Test2)
{
    sample::class3 c;
    int a = 4;
    int b = 0;
    c.func4(a);
    c.func5(b);
    EXPECT_EQ(a, b); // c.func4(a)を行った後、c.func5(b)のb==aかチェック
}

// Run all the tests that were declared with TEST()
int main(int argc, char **argv){
    testing::InitGoogleTest(&argc, argv);
    return RUN_ALL_TESTS();
}

テンプレートのCMakeListsファイルとPackageファイル

テンプレートのCMakeListsファイルとPackageファイルを記載する。
# CMakeLists.txt
cmake_minimum_required(VERSION 2.8.3)
project(sample_pkg)

## Compile as C++11, supported in ROS Kinetic and newer
add_compile_options(-std=c++11 -Wall -g -O3)

## Find catkin macros and libraries
find_package(catkin REQUIRED COMPONENTS
             roscpp
)

###################################
## catkin specific configuration ##
###################################

## Declare things to be passed to dependent projects
catkin_package(
   INCLUDE_DIRS include
   LIBRARIES sample_pkg
)

###########
## Build ##
###########

## Specify additional locations of header files
include_directories(include
                    /usr/local/include
                    ${catkin_INCLUDE_DIRS}
)

## Declare a C++ library
add_library(${PROJECT_NAME}_lib
            src/sample.cpp
)

## Declare a C++ executable
add_executable(${PROJECT_NAME}
               src/main.cpp
)

## Specify libraries to link a library or executable target against
target_link_libraries(${PROJECT_NAME}_lib
                      ${catkin_LIBRARIES}
)

target_link_libraries(${PROJECT_NAME}
                      ${PROJECT_NAME}_lib
                      ${catkin_LIBRARIES}
)

#############
## Install ##
#############

## Mark executables and/or libraries for installation
install(TARGETS ${PROJECT_NAME}
        ARCHIVE DESTINATION ${CATKIN_PACKAGE_LIB_DESTINATION}
        LIBRARY DESTINATION ${CATKIN_PACKAGE_LIB_DESTINATION}
        RUNTIME DESTINATION ${CATKIN_PACKAGE_BIN_DESTINATION}
)

## Mark cpp header files for installation
install(DIRECTORY include/${PROJECT_NAME}/
        DESTINATION ${CATKIN_PACKAGE_INCLUDE_DESTINATION}
        FILES_MATCHING PATTERN "*.hpp"
)

#############
## Testing ##
#############

## Add gtest based cpp test target and link libraries
catkin_add_gtest(${PROJECT_NAME}_test test/utest.cpp)
target_link_libraries(${PROJECT_NAME}_test
                      ${PROJECT_NAME}_lib
                      ${catkin_LIBRARIES}
)

<!-- package.xml -->
<?xml version="1.0"?>
<package format="2">
  <name>sample_pkg</name>
  <version>0.0.0</version>
  <description>The sample package</description>

  <!-- One maintainer tag required, multiple allowed, one person per tag -->
  <maintainer email="xxx@yyy.zz">EmptySet</maintainer>

  <!-- One license tag required, multiple allowed, one license per tag -->
  <!-- Commonly used license strings: -->
  <!--   BSD, MIT, Boost Software License, GPLv2, GPLv3, LGPLv2.1, LGPLv3 -->
  <license>MIT</license>

  <!-- Url tags are optional, but multiple are allowed, one per tag -->
  <!-- Optional attribute type can be: website, bugtracker, or repository -->
  <url type="website">https://ittechnicalmemos.blogspot.com</url>

  <!-- Author tags are optional, multiple are allowed, one per tag -->
  <!-- Authors do not have to be maintainers, but could be -->
  <author email="xxx@yyy.zz">EmptySet</author>

  <!-- The *depend tags are used to specify dependencies -->
  <!-- Dependencies can be catkin packages or system dependencies -->
  <buildtool_depend>catkin</buildtool_depend>
  <build_depend>roscpp</build_depend>
  <build_export_depend>roscpp</build_export_depend>
  <exec_depend>roscpp</exec_depend>
</package>

テンプレートの単体テスト実行方法

テンプレートの単体テスト実行方法及び結果を記載する。
$ catkin_make run_tests
...
- run_tests.py: execute commands
  /home/emptySet/work_space/devel/lib/sample_pkg/sample_pkg_test --gtest_output=xml:/home/emptySet/work_space/build/test_results/sample_pkg/gtest-sample_pkg_test.xml
[==========] Running 4 tests from 3 test cases.
[----------] Global test environment set-up.
[----------] 1 test from Factorial1Test
[ RUN      ] Factorial1Test.func1Test
[       OK ] Factorial1Test.func1Test (0 ms)
[----------] 1 test from Factorial1Test (0 ms total)

[----------] 1 test from Factorial2Test
[ RUN      ] Factorial2Test.func2Test
[       OK ] Factorial2Test.func2Test (0 ms)
[----------] 1 test from Factorial2Test (0 ms total)

[----------] 2 tests from Class3Test
[ RUN      ] Class3Test.func4_5Test1
[       OK ] Class3Test.func4_5Test1 (0 ms)
[ RUN      ] Class3Test.func4_5Test2
[       OK ] Class3Test.func4_5Test2 (0 ms)
[----------] 2 tests from Class3Test (0 ms total)

[----------] Global test environment tear-down
[==========] 4 tests from 3 test cases ran. (0 ms total)
[  PASSED  ] 4 tests.
-- run_tests.py: verify result "/home/emptySet/work_space/build/test_results/sample_pkg/gtest-sample_pkg_test.xml"
...

テスト結果がNGの場合は、下記のように表示される。
$ catkin_make run_tests
...
/home/emptySet/work_space/src/sample_pkg/test/utest.cpp:31: Failure
Value of: a
  Actual: 4
Expected: 2
[  FAILED  ] Class3Test.func4_5Test2 (0 ms)
...
[  FAILED  ] 1 test, listed below:
[  FAILED  ] Class3Test.func4_5Test2

 1 FAILED TEST
...

備考

  • google testのマクロはここを参照。

まとめ


  • google testでrosパッケージの単体テストを行う方法を調査、記載した

参考文献



変更履歴


  1. 2019/09/12: 新規作成

2019/09/09

Visual Studio Codeのプラグイン導入

背景


仕事で、ドキュメント作成やプログラミング作成にVisual Studio Code (以下vscode)を使用している。
個人的によく使うプラグインについて記載する。

記事の目的


ドキュメント作成やプログラミング作成でよく使うプラグインを記載する

Visual Studio Codeのプラグイン導入


ここでは、vscodeのプラグイン導入方法と使用方法について記載する。

Code Spell Checker

Code Spell Checker
Code Spell Checkerは、英語のスペルチェックを自動で行ってくれるプラグインである。

利点
  • プログラミングの際のクラス・関数・変数名、文言などのスペルミスを未然に防ぐことができる
  • スペースで区切られていない単語(ThisIsAPen)のスペルチェックも可能

使用方法
  • 自動的に、スペルミスした単語が強調される

Markdown Preview Enhanced


Markdown Preview Enhancedは、マークダウン形式で記載したドキュメントをプレビューできるプラグインである。

利点
  • マークダウン形式のドキュメントを変更すると、プレビュー画面へ変更が即座に反映される
  • htmlやpdf形式などで出力することができる

使用方法
  • ctr+shift+v: プレビュー画面表示
  • プレビュー画面右クリック: 保存タブ表示(html, pdfなど)

PlantUML

PlantUML

PlantUMLは、UML形式で記述した図をプレビューできるプラグインである。


利点
  • UML形式形式の図を変更すると、プレビュー画面へ変更が即座に反映される
  • 画像形式などで出力することができる

使用方法
  • Alt+D: プレビュー画面表示

まとめ


  • Visual Studio Codeのプラグインについて調査、記載した

参考文献



変更履歴


  1. 2019/09/10: 新規作成

2019/09/07

Visual Studio Code導入手順

背景


仕事で、ドキュメント作成やプログラミング作成にVisual Studio Code (以下vscode)を使用している。
そこで、Windows及びUbuntuへのvscodeの導入方法と、初期設定について記載する。

記事の目的


Visual Studio Codeを導入する

Visual Studio Codeの導入


ここでは、vscodeの導入方法と使用方法について記載する。

vscodeとは

Visual Studio Code

vscodeは、Microsoftが開発したオープンソースのエディターである。

利点

  • Windows, MacOS, Linuxで動作し、操作方法がほぼ共通である
  • 多くのプラグインが存在し、ワンクリックで導入できる
  • 比較的軽量で、使用中にストレスを感じることがない
  • デフォルトでgitと連携しており、commit, push, pull, diffがワンクリックで行え、バージョン管理や変更点確認が容易にできる

導入方法(Windows編)

Windowsへのvscodeの導入手順は、下記の通りである。
  1. 公式サイトから、インストーラをダウンロードする
  2. インストーラを起動し、インストール行う
  3. vscodeのインストーラ(Windows)

導入方法(Ubuntu編)

Ubuntuへのvscodeの導入手順は、下記の通りである。
  1. vscodeのインストールに必要なプログラムをインストールする
  2. $ sudo apt install curl apt-transport-https
  3. aptのリポジトリで使用するマイクロソフトのキーをダウンロードする
  4. $ curl https://packages.microsoft.com/keys/microsoft.asc | gpg --dearmor > microsoft.gpg
  5. ダウンロードしてきたキーを/etc/apt/trusted.gpg.d/にコピーする
  6. $ sudo install -o root -g root -m 644 microsoft.gpg /etc/apt/trusted.gpg.d/
  7. リポジトリを登録する
  8. $ sudo sh -c 'echo "deb [arch=amd64] https://packages.microsoft.com/repos/vscode stable main" > /etc/apt/sources.list.d/vscode.list'
  9. インストールする
  10. $ sudo apt update
    $ sudo apt install code
  11. 起動する
  12. $ code .

初期設定方法

初期設定方法は、下記の通りである。
  • 日本語化
    1. vscodeを開く
    2. 「view」を選択する
    3. 「comanndo palette」を選択する
    4. 「configure display language」を選択する
    5. 「locale」を「en」から「ja」に書き換える。
    6. "locale":"ja" // Changes will not take effect until VS Code has been restarted.
    7. 左側にある四角いアイコン(extension)をクリックする
    8. 検索窓から「Japanese Language Pack for Visual Studio Code」を検索しインストールする
    9. vscodeを再起動する
  • 全角・半角スペースの表示設定
    1. vscodeを開く
    2. 「code」から「preferences」>「Settings」を選択する
    3. 「Editor:Render Whitespace」の項目を「all」に変更する

アンインストール方法(Ubuntu編)

Ubuntuからのvscodeのアンインストールは、下記の通りである。
  1. vscodeのインストールに使用したプログラムとvscodeをアンインストールする
  2. $ sudo apt remove apt-transport-https curl code
    $ sudo apt autoremove
  3. リポジトリを削除する
  4. $ sudo rm /etc/apt/sources.list.d/vscode.list
  5. ダウンロードしてきたキーを削除する
  6. $ sudo rm /etc/apt/trusted.gpg.d/microsoft.gpg

まとめ


  • Visual Studio Codeの導入方法について調査、記載した

参考文献



変更履歴


  1. 2019/09/07: 新規作成

2019/09/05

実行中のrosノードを全て終了させるスクリプトの作成方法

背景


実行している複数rosノードをCtr+Cでkillする際、時々一部のノードが終了されずにバックグラウンドで実行される場合があった。このような場合、次にrosノードを起動した際に不具合が生じる可能性がある。そこで、実行中のrosノードを全てkillするスクリプトを作成した。

記事の目的


実行中のrosノードを全てkillするスクリプトを作成する

kill_all_rosnode.sh


ここでは、実行中のrosノードを全てkillするスクリプトの記述方法について記載する。

スクリプトの作成方法

スクリプトの作成方法は以下の通りである。
  1. スクリプトkill_all_rosnode.shを作成する
  2. #!/bin/bash
    echo "Kill all ros nodes!"
    ps aux | grep ros | grep -v grep | awk '{ print "kill -9", $2 }' | sh
    exit 0
  3. スクリプトに実行権限を与える
  4. $ chmod +x ./kill_all_rosnode.sh 

スクリプトの実行方法

実行方法は以下の通りである。
$ ./kill_all_rosnode.sh
Kill all ros nodes!

まとめ


  • 実行中のrosノードを全てkillするスクリプトを作成した

参考文献



変更履歴


  1. 2019/09/05: 新規作成

2019/09/03

USBポートでデバイス名を固定する方法(Linux)

背景


同一デバイスを複数接続し、それらのデバイス名を固定する必要があった。デバイスが同一の為、udevのベンダーIDとプロダクトIDを利用してデバイス名を固定することができなかった。そこで、接続したUSBポートを用いた識別を行った。

記事の目的


同一デバイスを、接続したUSBポートの場所で識別し、デバイス名を固定する

接続したUSBポートでデバイスを識別


ここでは、ベンダーIDとプロダクトIDを利用した通常の識別方法と、接続したUSBポートの場所でデバイスを識別する方法についてそれぞれ記載する。

ベンダーIDとプロダクトIDを利用した識別方法

ベンダーIDとプロダクトIDを利用したデバイスの識別及びデバイス名の固定方法は下記の通りである。

  1. デバイスのベンダーIDとプロダクトIDの検索
  2. lsusbを用いて、デバイスのベンダーIDとプロダクトIDを検索する
    $ lsusb
        Bus 002 Device 002: ID idVendor:idProduct Intel Corp.
        Bus 003 Device 016: ID 054c:06c1 Sony Corp.
            :
        Bus 003 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub
  3. udevルールの作成
  4. /etc/udev/rules.dにルールファイルを作成する
    $ sudo nano /etc/udev/rules.d/80-nfc.rules
        SUBSYSTEM=="usb", ATTR{idVendor}=="054c", ATTR{idProduct}=="06c1", SYMLINK+="nfc"
    
    これで、Bus 003 Device 016: ID 054c:06c1 Sony Corp./dev/nfcとして毎回認識されるようになった。

接続したUSBポートの場所を利用した識別方法

上記方法では、同一のデバイスの場合、識別できない。そこで、接続したUSBポートで識別する。
  1. デバイスが接続されたUSBポートを探索する
  2. /dev/serial/by-path/以下に、接続したデバイスがUSBポートの位置で識別され、配置されている
    $ ls /dev/serial/by-path/
    pci-0000:00:1a.0-usb-0:1:1.0-port0
    pci-0000:00:1d.0-usb-0:2:1.0-port0
  3. シンボリックリンクを作成し、デバイス名を固定する
  4. /dev/にシンボリックリンクを作成することで、そのUSBポートに接続したデバイスのデバイス名が固定される
    $ sudo ln -s /dev/serial/by-path/pci-0000:00:1a.0-usb-0:1:1.0-port0 /dev/nfc
    これで、USBポートpci-0000:00:1a.0-usb-0:1:1.0-port0に接続されたデバイスが/dev/nfcとして毎回認識されるようになった。

備考

  • /dev/serial/by-id/以下に、接続したデバイスがシリアル番号で識別され、配置されている
  • /dev/disk/以下に、接続したディスクが/dev/serial/と同様の形でに配置されている

まとめ


  • 同一デバイスを、接続したUSBポートの場所で識別し、デバイス名を固定する方法について記載した

参考文献



変更履歴


  1. 2019/09/03: 新規作成

2019/09/01

Doxygen対応のコメント記載方法(C, C++)

背景


仕事でプログラミングする際に、関数に説明を追加する場合が多いため、Doxygen対応のコメント方法について記載する。

記事の目的


Doxygen対応のコメント記載方法について記す

Doxygen対応のコメント


ここでは、Doxygen対応のコメント記載方法について記す。

ファイルへのコメント

ファイルの先頭に、ファイル内のプログラムの説明を記載する。
/**
 * @file ファイル名.h
 * @brief 簡単な説明
 * @author 書いた人
 * @date 作成日付
 */

関数へのコメント

関数毎に、関数の説明を記載する。
/**
 * @fn func1(int, int)
 * ここに関数の説明を書く
 * @brief 要約説明
 * @param arg1 引数の説明
 * @param arg2 引数の説明
 * @return 戻り値の説明
 * @sa 参照すべき関数を書けばリンクが貼れる
 * @detail 詳細な説明
 */
void func1(int arg1, int arg2)
{}

変数へのコメント

変数毎に、変数の説明を記載する。
//! 変数へのコメント
int a = 0;

マクロへのコメント

マクロ毎に、マクロの説明を記載する。
/** @def
 * マクロのコメント
 */
#define MAX_XXX 256

列挙体へのコメント

列挙体毎に、列挙体の説明を記載する。
/**
 * @enum Enum
 * 列挙体の説明
 */
enum Enum {
    //! 列挙体の各要素の説明
    EnumItem1 = 0x00,

    //! 列挙体の各要素の説明
    EnumItem2 = 0x01
};

構造体へのコメント

構造体体毎に、構造体の説明を記載する。
/**
 * @struct     構造体名
 * @brief      構造体の説明
**/
struct Struct{
    //! 構造体の各要素の説明
    StructItem1 = 0x00,

    //! 構造体の各要素の説明
    StructItem2 = 0x01
};

クラスへのコメント

クラス毎に、クラスの説明を記載する。
int global_var1
int global_var2
int global_var3
int global_var4

/*! @class Class1
    @brief  クラスの説明
*/
class Class1 {
public:
    /*! メンバ1の説明 */
    int member1;

    int member2; /*!< メンバ2の説明を横につける */

    /*! メソッド1の説明 */
    int method1(int var1, int var2);

    /*! メソッド2の説明。詳細説明
        @param[out]     var1    var1の説明
        @param[in]      var2    var2の説明
        @param[in,out]  var3    var3の説明
        @par            Refer
        - 参照するグローバル変数 global_var1
        - 参照するグローバル変数 global_var2
        @par            Modify
        - 変更するグローバル変数 global_var3
        - 変更するグローバル変数 global_var4
        @return         成功 0, 失敗 0 以外 など
        @exception      例外。不要であればnoneを記述
    */
    int method2(int var1, int var2, int var3) {
    ...
    }
};

まとめ


  • Doxygen対応のコメント記載方法を調査、記載した

参考文献



変更履歴


  1. 2019/09/01: 新規作成

2019/08/28

C++でリングバッファを実装

背景


仕事でプログラミングする際に、リングバッファを多用するため、テンプレートを作成する

記事の目的


リングバッファのテンプレートを作成する

リングバッファ


ここでは、リングバッファの記述方法について記載する。

仕様

テンプレートの仕様について記載する。
  • 複数のスレッドから、バッファサイズの変更、バッファの書き込み、バッファの読み込みが可能
  • データが格納されていないバッファにアクセスすると、エラーが表示され、デフォルトのデータが返される

テンプレート

リングバッファを使用するテンプレートを記載する。
// ring_buffer.cpp
#include <stdio.h>
#include <mutex>

// リングバッファに格納するデータ形式
struct Data
{
    int number = 0;
};

// 前方宣言
class RingBuffer
{
    public:
        // コンストラクタ(リングバッファのサイズを指定(2の冪乗が最適))
        RingBuffer(uint buffer_size_in);
        // デストラクタ
        ~RingBuffer();
        // リングバッファのサイズを指定(0より大の整数、2の冪乗が最適)
        void setBufferSize(uint buffer_size_in);
        // リングバッファのサイズを取得
        uint getBufferSize();
        // リングバッファにデータを書き込み
        void writeBuffer(Data data_in);
        // リングバッファのデータを読み込み(0: 最新, BufferSize: 最古)
        Data readBuffer(uint read_pointer_in);
    private:
        // コンストラクタ(宣言時に必ずバッファサイズを宣言する)
        RingBuffer();
        // リングバッファのポインタ
        Data *data_;
        // リングバッファのサイズ
        uint buffer_size_   = 0;
        // リングバッファ内に書き込まれたデータ数
        uint data_size_     = 0;
        // 書き込みポインタ(最新データのポインタ)
        uint write_pointer_ = 0;
        // mutex(読み書き、バッファサイズ変更を排他)
        std::mutex mtx_;
};
// コンストラクタ(プライベート関数)
RingBuffer::RingBuffer()
{}
// コンストラクタ(リングバッファのサイズを指定)
RingBuffer::RingBuffer(uint buffer_size_in)
{
    // リングバッファのサイズを指定、メモリ上にバッファを確保
    setBufferSize(buffer_size_in);
}
// デストラクタ(リングバッファを削除)
RingBuffer::~RingBuffer()
{
    if (buffer_size_ > 0)
    {
        delete[] data_;
    }
}
// リングバッファのサイズを指定、メモリ上にバッファを確保
void RingBuffer::setBufferSize(uint buffer_size_in)
{
    if (buffer_size_in > 0)
    {
        // 排他
        std::lock_guard<std::mutex> lock(mtx_);
        // すでにメモリ上にリングバッファが確保されている場合は、一旦削除
        if (buffer_size_ > 0)
        {
            delete data_;
        }
        // リングバッファのサイズを保持
        buffer_size_ = buffer_size_in;
        // 内部変数の初期化
        data_size_   = 0;
        write_pointer_   = 0;
        // メモリ上にリングバッファを確保
        data_ = new Data[buffer_size_in];
    }
    else
    {
        fprintf(stderr, "Error: [RingBuffer] Please set buffer size more than 0.\n");
    }
}
// リングバッファのサイズを取得
uint RingBuffer::getBufferSize()
{
    // 排他
    std::lock_guard<std::mutex> lock(mtx_);
    return buffer_size_;
}
// リングバッファにデータ書き込み
void RingBuffer::writeBuffer(Data data_in)
{
    // リングバッファが確保されている場合のみ処理
    if (buffer_size_ > 0)
    {
        // 排他
        std::lock_guard<std::mutex> lock(mtx_);
        // 書き込みポインタを進める
        write_pointer_ ++;
        write_pointer_ %= buffer_size_;
        // データを書き込み
        data_[write_pointer_] = data_in;
        // 書き込んだデータ数を保持
        if (data_size_ < buffer_size_)
        {
            data_size_ ++;
        }
    }
    else
    {
        fprintf(stderr, "Error: [RingBuffer] Buffer is not allocated.\n");
    }
}

Data RingBuffer::readBuffer(uint read_pointer_in)
{
    // 過去にデータが書き込まれていないデータのポインタにはアクセスさせない
    if (read_pointer_in < data_size_)
    {
        // 排他
        std::lock_guard<std::mutex> lock(mtx_);
        // 現在の最新データのポインタを0, 古いほど値が大きくなる(最大: Buffer Size)
        uint read_pointer = (buffer_size_+write_pointer_-read_pointer_in)%buffer_size_;
        return data_[read_pointer] ;
    }
    else
    {
        fprintf(stderr, "Error: [RingBuffer] Read pointer is out of buffer. (%d / %d)\n",
                            read_pointer_in, data_size_);
        Data data;
        return data;
    }
}

// テストコード
int main()
{
    fprintf(stdout, "Error pattern -------\n"); 
    // 宣言(エラー)
    RingBuffer buf(0);
    Data data_1;
    data_1.number = 0;
    // データ書き込み(エラー)
    buf.writeBuffer(data_1);
    // データ読み込み(エラー)
    buf.readBuffer(1);
    // リングバッファのサイズを再設定
    buf.setBufferSize(10);
    // データ読み込み(エラー)
    buf.readBuffer(1);

    fprintf(stdout, "Normal pattern ------\n"); 
    for (uint i=0; i<2*buf.getBufferSize(); i++)
    {
        Data data_2;
        data_2.number = i;
        // データ書き込み(正常)
        buf.writeBuffer(data_2);
        fprintf(stdout, "%d / %d\n",i, 2*buf.getBufferSize()-1); 
        // 1. データ読み込み(最古のデータ 0 or 10)
        fprintf(stdout, "1. buf.data[%d].number: %d\n", 
            i%buf.getBufferSize(),
            buf.readBuffer(i%buf.getBufferSize()).number);
        // 2. データ読み込み(最新のデータ 0 to 19)
        fprintf(stdout, "2. buf.data[%d].number: %d\n", 
            0,buf.readBuffer(0).number);
    }
    return 0;
}

テンプレートのコンパイル方法

テンプレートのコンパイル方法を記載する。
$ g++ ./ring_buffer.cpp -std=c++11 -o ring_buffer_sample

テンプレートの実行結果

テンプレートの実行結果を記載する。
$ ./ring_buffer_sample
Error pattern -------
Error: [RingBuffer] Please set buffer size more than 0.
Error: [RingBuffer] Buffer is not allocated.
Error: [RingBuffer] Read pointer is out of buffer. (1 / 0)
Error: [RingBuffer] Read pointer is out of buffer. (1 / 0)
Normal pattern ------
0 / 19
1. buf.data[0].number: 0
2. buf.data[0].number: 0
1 / 19
1. buf.data[1].number: 0
2. buf.data[0].number: 1
2 / 19
1. buf.data[2].number: 0
2. buf.data[0].number: 2
3 / 19
1. buf.data[3].number: 0
2. buf.data[0].number: 3
4 / 19
1. buf.data[4].number: 0
2. buf.data[0].number: 4
5 / 19
1. buf.data[5].number: 0
2. buf.data[0].number: 5
6 / 19
1. buf.data[6].number: 0
2. buf.data[0].number: 6
7 / 19
1. buf.data[7].number: 0
2. buf.data[0].number: 7
8 / 19
1. buf.data[8].number: 0
2. buf.data[0].number: 8
9 / 19
1. buf.data[9].number: 0
2. buf.data[0].number: 9
10 / 19
1. buf.data[0].number: 10
2. buf.data[0].number: 10
11 / 19
1. buf.data[1].number: 10
2. buf.data[0].number: 11
12 / 19
1. buf.data[2].number: 10
2. buf.data[0].number: 12
13 / 19
1. buf.data[3].number: 10
2. buf.data[0].number: 13
14 / 19
1. buf.data[4].number: 10
2. buf.data[0].number: 14
15 / 19
1. buf.data[5].number: 10
2. buf.data[0].number: 15
16 / 19
1. buf.data[6].number: 10
2. buf.data[0].number: 16
17 / 19
1. buf.data[7].number: 10
2. buf.data[0].number: 17
18 / 19
1. buf.data[8].number: 10
2. buf.data[0].number: 18
19 / 19
1. buf.data[9].number: 10
2. buf.data[0].number: 19

備考


まとめ


  • C++でリングバッファを記述するテンプレートを記載した

参考文献



変更履歴


  1. 2019/08/28: 新規作成
  2. 2019/08/28: 備考追記
  3. 2019/09/02: 仕様追記

2019/08/26

forループをCUDAで並列化する方法

背景


CUDAを利用して並列化を行い、処理を高速化する必要が出てきたため、CUDAで並列化処理を記述する方法について記述する

記事の目的


CUDAで並列化処理を行う際のテンプレートを作成する

CUDA


ここでは、CUDAを利用したCプログラムの記述方法について記載する。

CUDAとは

CUDAは、nvidia社が提供するGPUを利用した並列演算プログラミング基盤である

利点

  • ユーザーが多く、情報も入手しやすい
  • ライブラリが充実している
  • 導入が容易である

テンプレート

CUDAを利用して並列処理を行うテンプレートを記載する。
// cuda_sample_code.cu
#include <stdio.h>

// デバイス(GPU)側のスレッドの設定 //////////////////////////////////
// BLOCK_SIZE_Xは、1ブロックあたりのスレッド数を表す
// GPUの種類により、1ブロックあたりのスレッド数の制限が異なる
// 最適なスレッド数を設定しないと、カーネル関数の処理がスキップされる
// 注)上記の場合、エラーでプロセスが落ちる事はない
#define BLOCK_SIZE_X 512

// カーネル関数(GPUで処理する関数)vec_sumの宣言 /////////////////////
// この関数がGPUで並列実行される
__global__
void vec_sum(float k, float *a, float *b, float *c)
{
    // iは、"for(int i=0; i < grid.x * block.x; i++)" の値を取る
    // ただし、並列処理のため、i++順に処理されるわけではない
    int i = blockIdx.x*blockDim.x + threadIdx.x;
    c[i] = k*a[i] + b[i];

    // GPU内のスレッドの同期 ////////////////////////////////////////
    // block_size * grid_size個の全てのスレッドが、ここで同期する
    __syncthreads();
}

// カーネル関数を呼び出す関数を宣言 /////////////////////////////////
void cuda_handler(float *a, float *b, float *c)
{
    // デバイス用のポインタを宣言 ///////////////////////////////////
    float *d_a, *d_b, *d_c;

    // デバイス(GPU)側の配列のメモリを確保 //////////////////////////
    // デバイス側のメモリ確保処理は重いため、回数は減らした方が良い
    cudaMalloc(&d_a, N*sizeof(float));
    cudaMalloc(&d_b, N*sizeof(float));
    cudaMalloc(&d_c, N*sizeof(float));

    // ホスト側の配列内のデータをデバイス側にコピー /////////////////
    cudaMemcpy(d_a, a, N*sizeof(float), cudaMemcpyHostToDevice);
    cudaMemcpy(d_b, b, N*sizeof(float), cudaMemcpyHostToDevice);

    // デバイス側の配列cの全ての要素に0をセット /////////////////////
    cudaMemset(d_c, 0, N*sizeof(float));

    // cudaを利用した処理のうち、最後のエラーを取得し、表示 /////////
    // ここでは、メモリへのデータセットのエラーチェックに利用している
    // 注)nvccのコンパイルオプションに"-g -G"を追加しないと動作しない
    // 注)エラーチェックをアクティブにすると、性能が極端に落ちる
    checkCudaErrors(cudaGetLastError());

    // 並列処理するスレッド数を定義 /////////////////////////////////
    // 総スレッド数は block_size * grid_size = N 個である
    // x, y, zの3次元まで設定可能である
    dim3 block_size (BLOCK_SIZE_X, 1, 1);
    dim3 grid_size  (N / block.x, 1, 1);

    // カーネル関数(GPUで処理する関数)の呼び出し ////////////////////
    // カーネル関数内では、デバイス側のメモリ内のデータのみ操作可能
    vec_sum<<<grid_size, block_size>>>(2.0f, d_a, d_b, d_c);

    // cudaを利用した処理のうち、最後のエラーを取得し、表示 /////////
    // ここでは、vec_sumのエラーチェックに利用している
    // 注)nvccのコンパイルオプションに"-g -G"を追加しないと動作しない
    // 注)エラーチェックをアクティブにすると、性能が極端に落ちる
    checkCudaErrors(cudaGetLastError());

    // この行までに実行されたカーネル関数の処理が完了するまで待機 ///
    // デバイスとホストの処理は非同期である
    // 同期処理を行うか、cudaMemcpyするまで、互いは独立して動作する
    cudaThreadSynchronize();

    // 計算結果をホスト側にコピー ///////////////////////////////////
    cudaMemcpy(c, d_c, N*sizeof(float), cudaMemcpyDeviceToHost);

    // デバイス(GPU)側の配列のメモリを開放 //////////////////////////
    cudaFree(d_a);
    cudaFree(d_b);
    cudaFree(d_c);

    // cudaを利用した処理のうち、最後のエラーを取得し、表示 /////////
    // ここでは、メモリへのデータセットのエラーチェックに利用している
    // 注)nvccのコンパイルオプションに"-g -G"を追加しないと動作しない
    // 注)エラーチェックをアクティブにすると、性能が極端に落ちる
    checkCudaErrors(cudaGetLastError());
}

int main(void)
{
    // 計算回数の設定 ///////////////////////////////////////////////
    // N = 512×2048
    int N = 1<<20;

    // ホスト用のポインタを宣言 /////////////////////////////////////
    float *a, *b, *c;

    // ホスト側の配列のメモリを確保 /////////////////////////////////
    a = (float*)malloc(N*sizeof(float));
    b = (float*)malloc(N*sizeof(float));
    c = (float*)malloc(N*sizeof(float));

    // a, bの配列にそれぞれ1,2を代入////////////////////////////////
    for (int i = 0; i < N; i++) {
        a[i] = 1.0f;
        b[i] = 2.0f;
    }

    // cudaでの処理を行う関数 ///////////////////////////////////////
    cuda_handler(a, b, c);

    // 計算結果の確認 ///////////////////////////////////////////////
    float maxError = 0.0f;
    for (int i = 0; i < N; i++)
    {
        maxError = max(maxError, abs(c[i]-4.0f));
    }
    printf("Max error: %f", maxError);

    // ホスト側の配列のメモリを開放 /////////////////////////////////
    free(a);
    free(b);
    free(c);

    return 0;
}

テンプレートのコンパイル方法

テンプレートのコンパイル方法を記載する。
nvcc -lcuda ./cuda_sample_code.cu -o ./cuda_sample
デバッグログを出力する場合は、下記のように記載する。
nvcc -lcuda -g -G ./cuda_sample_code.cu -o ./cuda_sample

テンプレートの実行結果

テンプレートの実行結果を記載する。
$ ./cuda_sample
Max error: 0.000000

まとめ


  • CUDAでプログラミングをする際のテンプレートを調査、記載した

参考文献



変更履歴


  1. 2019/08/26: 新規作成

2019/08/25

make時にGPUのアーキテクチャ番号を自動設定させる方法

背景


複数種類の開発環境でまたがってCUDAを利用したプログラムを開発する際、マシンに搭載されたGPUのアーキテクチャに応じて、CMakeLists.txt内のアーキテクチャ番号を毎回書き換える必要があった。メンテナンスの効率化のため、どのGPU搭載のマシンでmakeした場合でも、GPUの種類を識別して、そのGPUに最適なバイナリファイルを生成する環境を構築する。

記事の目的


makeする際に自動で搭載GPUのアーキテクチャを識別し、そのGPUに最適なバイナリーを出力するようにmake環境を構築する

仮想/実アーキテクチャの設定


ここでは、UbuntuにおけるマルチGPU対応のmake環境を構築するための方法について記載する。

nvccのコンパイルオプション

nvccのコンパイルオプションのうち、アーキテクチャに関する部分について記述する。
  • --gpu-architecture (-arch)
  • *.cuが対象にしている仮想アーキテクチャを指定する。したがって、基本的にはcompute_*の中から選択する。
  • --gpu-code (-code)
  • 仮想アーキテクチャのコード(*.ptx)から生成して出力に加えるアーキテクチャを指定する。PTXを含めたいときはcompute_*、特定のGPU向けバイナリを含めたいときはsm_*を選択する。
  • --generate-code arch=compute_*,code=\"compute_*,sm_*\"
  • 上記2つのオプションを一度に設定できる

導入方法

make環境を構築する手順は、下記の通りである。
  1. check_cuda.cuをCMakeLists.txtと同じ階層に置く
  2. // check_cuda.cu
    #include <stdio.h>
    
    int main(int argc, char **argv){
        cudaDeviceProp dP;
        float min_cc = 3.0;
    
        int rc = cudaGetDeviceProperties(&dP, 0);
        if(rc != cudaSuccess) {
            cudaError_t error = cudaGetLastError();
            printf("CUDA error: %s", cudaGetErrorString(error));
            return rc; /* Failure */
        }
        if((dP.major+(dP.minor/10)) < min_cc) {
            printf("Min Compute Capability of %2.1f required:  %d.%d found",
                    min_cc, dP.major, dP.minor);
            printf(" Not Building CUDA Code");
            return 1; /* Failure */
        } else {
            printf("%d%d", dP.major, dP.minor);
            return 0; /* Success */
        }
    }
  3. CMakeLists.txtを編集する
  4. 下記のコードを追加することで、$CUDA_NVCC_FLAGSにコンパイルしたマシンのアーキテクチャを自動設定できる。
    cmake_minimum_required(VERSION 3.0)
    # Find CUDA
    find_package(CUDA)
    
    if (CUDA_FOUND)
      #Get CUDA compute capability
      set(OUTPUTFILE ${CMAKE_CURRENT_SOURCE_DIR}/cuda_script) # No suffix required
      set(CUDAFILE ${CMAKE_CURRENT_SOURCE_DIR}/check_cuda.cu)
      execute_process(COMMAND nvcc -lcuda ${CUDAFILE} -o ${OUTPUTFILE})
      execute_process(COMMAND ${OUTPUTFILE}
                      RESULT_VARIABLE CUDA_RETURN_CODE
                      OUTPUT_VARIABLE ARCH)
      execute_process(COMMAND rm ${OUTPUTFILE})
    
      if(${CUDA_RETURN_CODE} EQUAL 0)
        set(CUDA_SUCCESS "TRUE")
      else()
        set(CUDA_SUCCESS "FALSE")
      endif()
    
      if (${CUDA_SUCCESS})
        message(STATUS "CUDA Architecture: -arch=sm_${ARCH}")
        message(STATUS "CUDA Version: ${CUDA_VERSION_STRING}")
        message(STATUS "CUDA Path: ${CUDA_TOOLKIT_ROOT_DIR}")
        message(STATUS "CUDA Libararies: ${CUDA_LIBRARIES}")
        message(STATUS "CUDA Performance Primitives: ${CUDA_npp_LIBRARY}")
    
        set(CUDA_NVCC_FLAGS "{$CUDA_NVCC_FLAGS};--generate-code arch=compute_${ARCH},code=\"compute_${ARCH},sm_${ARCH}\"")
    
      else()
        message(WARNING -arch=sm_${ARCH})
      endif()
    endif()

まとめ


  • 搭載GPUのアーキテクチャを識別し、そのGPUに最適なバイナリーを出力するmake環境を構築する手順について調査、記載した

参考文献



変更履歴


  1. 2019/08/25: 新規作成

2019/08/24

CUDA10のコンパイラでrosのパッケージがコンパイルできない問題の対処法

背景


CUDA10のnvccを用いてrosのパッケージをコンパイルする際、エラーが発生してコンパイルできない問題が生じた。

記事の目的


CUDA10のnvccでrosパッケージをコンパイルできるようにする

nvccのバグ


ここでは、CUDA10のnvccでrosパッケージをコンパイルできない現象、原因及び対策について記載する。

現象

CUDA10のnvccでrosパッケージをコンパイルすると、下記のエラーが発生する場合がある。
$ catkin_make
...
/usr/include/pcl-1.7/pcl/point_cloud.h:586:100 error: template-id ‘getMapping’ used as a declarator
friend boost::shared_ptr& detail::getMapping(pcl::PointCloud &p);
^
/usr/include/pcl-1.7/pcl/point_cloud.h:586:100 error: ‘getMapping’ is neither function nor member function; cannot be declared friend
cc1plus: error: expected ‘;’ at end of member declaration
/usr/include/pcl-1.7/pcl/point_cloud.h:586:111: error: expected ‘)’ before ‘&’ token
...
make: *** [all] Error 2

原因

nvccが利用しているgnuコンパイラのバグが原因である。このバグは、「friend関数によりnamespace内で定義された関数を使用する」記述があるコードで発生する。ところで、rosは独自に手を加えたPointCloudLibrary(PCL)を使用しているが、PCLのコード内に上記の記述が存在する('/usr/include/pcl-1.7/pcl/point_cloud.h'内 l.586)。nvccのコンパイラは、上記箇所をコンパイルする際に、関数のnamespace部分を削除してしまう(detail::getMapping→getMapping)。そのため、コンパイラ自身が関数を見つけられなくなり、エラーとなる。
$less /usr/include/pcl-1.7/pcl/point_cloud.h 
'point_cloud.h'内の該当箇所
 
namespace detail
  {
    template <typename PointT> boost::shared_ptr<pcl::MsgFieldMap>&
    getMapping (pcl::PointCloud<PointT>& p);
  } // namespace detail
 
    protected:
      // This is motivated by ROS integration. Users should not need to access mapping_.
      boost::shared_ptr<MsgFieldMap> mapping_;

      friend boost::shared_ptr<MsgFieldMap>& detail::getMapping<PointT>(pcl::PointCloud<PointT> &p);

    public:
      EIGEN_MAKE_ALIGNED_OPERATOR_NEW
  };

  namespace detail
  {
    template <typename PointT> boost::shared_ptr<pcl::MsgFieldMap>&
    getMapping (pcl::PointCloud<PointT>& p)
    {
      return (p.mapping_);
    }
  } // namespace detail

対策

'/usr/include/pcl-1.7/pcl/point_cloud.h'を下記のように書き換えることで回避できる。
// Add ---------------------------------------------------------------------- //
template <typename PointT> boost::shared_ptr<pcl::MsgFieldMap>&
    getMapping (pcl::PointCloud<PointT>& p);
// -------------------------------------------------------------------------- //
namespace detail
  {
    template <typename PointT> boost::shared_ptr<pcl::MsgFieldMap>&
    getMapping (pcl::PointCloud<PointT>& p);
  } // namespace detail
 
    protected:
      // This is motivated by ROS integration. Users should not need to access mapping_.
      boost::shared_ptr<MsgFieldMap> mapping_;
      // Change ------------------------------------------------------------------- //
      friend boost::shared_ptr<MsgFieldMap>& getMapping<PointT>(pcl::PointCloud<PointT> &p);
      // friend boost::shared_ptr<MsgFieldMap>& detail::getMapping<PointT>(pcl::PointCloud<PointT> &p);
      // -------------------------------------------------------------------------- //
    public:
      EIGEN_MAKE_ALIGNED_OPERATOR_NEW
  };

// Add ---------------------------------------------------------------------- //
template <typename PointT> boost::shared_ptr<pcl::MsgFieldMap>&
    getMapping (pcl::PointCloud<PointT>& p)
{
    return (p.mapping_);
}
// -------------------------------------------------------------------------- //
namespace detail
  {
    template <typename PointT> boost::shared_ptr<pcl::MsgFieldMap>&
    getMapping (pcl::PointCloud<PointT>& p)
    {
      return (p.mapping_);
    }
  } // namespace detail

備考

  • ros-kinetic、cuda 10.1で検証した
  • コンパイルが通ることと、実行可能であることを確認した

まとめ


  • rosをapt install時にインストールされるpclのヘッダーファイルを変更することにより、CUDA10のnvccでrosパッケージがコンパイルできなくなる問題を回避した

参考文献



変更履歴


  1. 2019/08/24: 新規作成

2019/08/20

Pyenvの導入(Ubuntu)

背景


Ubuntu開発用PCで、Python2、Python3、Anacondaを使用しているため、手軽に切り替えられる方法が必要だった。

記事の目的


pyenvを導入する

Pyenv


ここでは、Ubuntuにおけるpyenvの導入方法と使用方法について記載する。

Pyenvとは

Pyenvは、Pythonの複数のバージョンを使い分けるコマンドラインツールである。

利点

  • shellで書かれていてPython自体に依存しない
  • pyenv install <Version>のように打つだけで好きなバージョンがインストールでき、切り替えも容易にできる
  • virtualenvへのバインディングを標準で搭載し、バージョンを切り替えるのと同じインターフェースでパッケージ環境も切り替えられる

導入方法

UbuntuへのPyenvの導入手順は、下記の通りである。
  1. 必要ライブラリをインストールする
  2. $ sudo apt install -y make build-essential libssl-dev zlib1g-dev libbz2-dev \
    libreadline-dev libsqlite3-dev wget curl llvm libncurses5-dev libncursesw5-dev \
    xz-utils tk-dev libffi-dev liblzma-dev python-openssl git
  3. gitからPyenvのを取得する
  4. $ git clone https://github.com/pyenv/pyenv.git ~/.pyenv
  5. Pyenvにパスを通して有効化する
  6. $ echo 'export PYENV_ROOT="$HOME/.pyenv"' >> ~/.bash_profile
    $ echo 'export PATH="$PYENV_ROOT/bin:$PATH"' >> ~/.bash_profile
    $ echo 'eval "$(pyenv init -)"' >> ~/.bash_profile
    $ source ~/.bash_profile

使用方法

Pyenvの使用方法は、下記の通りである。
  • Pythonのインストール
  • $ pyenv install <Version>
  • Pythonのアンインストール
  • $ pyenv uninstall <Version>
  • インストールされたPythonのバージョン確認
  • $ pyenv versions
    * system
      <Version>
  • Pythonのバージョン切り替え(全体)
  • $ pyenv global <Version>
  • Pythonのバージョン切り替え(現在のディレクトリのみ)
  • $ pyenv local <Version>

アンインストール方法

Pyenvのアンインストール方法は、下記の通りである。
  1. pyenvのアンインストール
  2. $ rm -rf $(pyenv root)
  3. (オプション)bash_profileかzshrcにpyenv関連の情報がある場合、削除
  4. $ nano ~/.bash_profile
    もしくは、
    $ nano ~/.zshrc
    下記を削除
    export PYENV_ROOT="$HOME/.pyenv"
    export PATH="$PYENV_ROOT/bin:$PATH"
    eval "$(pyenv init -)"
    eval "$(pyenv virtualenv-init -)"
  5. 再起動

まとめ


  • Pyenvの導入方法と使用方法について調査、記載した

参考文献



変更履歴


  1. 2019/08/20: 新規作成
  2. 2020/05/04: アンインストール方法追記

2019/08/17

PythonでSocketIO(クライアント編)

背景


PythonでSocketIO通信を行う必要があったため、今後の開発の効率化のためにSocketIO通信を行うクラスのテンプレートを作成する。

記事の目的


PythonでSocketIOクライアントを作成する

python-socketio


python-socketioを使用したSocketIOクライアントを作成する

選定理由

python-socketioの選定理由は、下記の通りである。

導入方法

python-socketioの導入手順は、下記の通りである。
  1. pipを利用して必要なライブラリをインストールする
  2. $ pip install requests python-socketio

テンプレート

python-socketioの使用テンプレートは、下記の通りである。
# socketioライブラリのインポート
import socketio
# ログ出力用ライブラリのインポート
from logging import getLogger, StreamHandler, DEBUG, INFO, ERROR
# 時間関係ライブラリのインポート
import time
# 終了シグナルをキャッチするライブラリのインポート
import signal
# マルチスレッドライブラリのインポート
import threading

# ロガーのインスタンス作成
logger         = getLogger(__name__)
stream_handler = StreamHandler()

# ログレベルを設定
log_level = INFO
logger.setLevel(log_level)
stream_handler.setLevel(log_level)

# ロガーにハンドラーをセット
logger.addHandler(stream_handler)

# SocketIOのテンプレート
class SocketIOClient:
    # namespaceの設定用クラス
    class NamespaceClass(socketio.ClientNamespace):
        def on_connect(self):
            pass
        def on_disconnect(self):
            pass
        def on_message(self, data):
            pass
        def on_server_to_client(self, data):
            pass
    # 接続時に呼ばれるイベント
    def on_connect(self):
        logger.info('Connected to server (%s:%d, namespace="%s", query="%s")',\
                     self.ip_,self.port_,self.namespace_,self.query_)
        self.is_connect_ = True
    # 切断時に呼ばれるイベント
    def on_disconnect(self):
        logger.info('Disconnected from server (%s:%d, namespace="%s", query="%s")',\
                     self.ip_,self.port_,self.namespace_,self.query_)
        self.is_connect_ = False
    def on_message(self, data):
        logger.info('Received message %s', str(data)) 
    # サーバーからイベント名「server_to_client」でデータがemitされた時に呼ばれる
    def on_server_to_client(self, data):
        logger.info('Received message %s', str(data)) 
    # Namespaceクラス内の各イベントをオーバーライド
    def overload_event(self):
        self.Namespace.on_connect          = self.on_connect
        self.Namespace.on_disconnect       = self.on_disconnect
        self.Namespace.on_message          = self.on_message
        self.Namespace.on_server_to_client = self.on_server_to_client
    # 初期化
    def __init__(self,ip,port,namespace,query):
        self.ip_         = ip
        self.port_       = port
        self.namespace_  = namespace
        self.query_      = query
        self.is_connect_ = False
        self.sio_        = socketio.Client()
        self.Namespace   = self.NamespaceClass(self.namespace_)
        self.overload_event()
        self.sio_.register_namespace(self.Namespace)
    # 接続確認
    def isConnect(self):
        return self.is_connect_
    # 接続
    def connect(self):
        # 接続先のURLとqueryの設定
        url = 'ws://'+self.ip_+':'+str(self.port_)+'?query='+self.query_
        logger.info('Try to connect to server(%s:%d, namespace="%s", query="%s")',\
                     self.ip_,self.port_,self.namespace_,self.query_)
        try:
            self.sio_.connect(url, namespaces=self.namespace_)            
        except: 
            logger.error('Cannot connect to server(%s:%d, namespace="%s", query="%s")',\
                          self.ip_,self.port_,self.namespace_,self.query_)
        else: 
            if not self.is_connect_:
                logger.error('Namespace may be invalid.(namespace="%s")',\
                              self.namespace_)   
    # 切断
    def disconnect(self):
        try:
            self.sio_.disconnect()
        except:
            logger.error('Cannot disconnect from server(%s:%d, namespace="%s", query="%s")',\
                          self.ip_,self.port_,self.namespace_,self.query_)
        else:
            self.is_connect_ = False
    # 再接続
    def reconnect(self):
        self.disconnect()
        time.sleep(5)
        self.connect()
    # クライアントからデータ送信(send)する
    def sendData(self, data):
        try:
            self.sio_.send(data, namespace=self.namespace_)
        except:
            logger.error('Has not connected to server(%s:%d, namespace="%s", query="%s")',\
                          self.ip_,self.port_,self.namespace_,self.query_)
        else:
            logger.info('Send message %s (namespace="%s")', str(data), self.namespace_) 
    # 独自定義のイベント名「client_to_server」で、クライアントからデータ送信(emit)する
    def emitData(self, data):
        try:
            self.sio_.emit('client_to_server', data, namespace=self.namespace_)
        except:
            logger.error('Has not connected to server(%s:%d, namespace="%s", query="%s")',\
                          self.ip_,self.port_,self.namespace_,self.query_)
        else:
            logger.info('Emit message %s (namespace="%s")', \
                         str(data), self.namespace_)  
    # メインの処理
    def run(self):
        while True:
            self.connect()
            time.sleep(1)
            if self.is_connect_:
                break
        p = threading.Thread(target=self.sio_.wait)
        p.setDaemon(True)
        p.start()
    
if __name__ == '__main__':
    # Ctrl + C (SIGINT) で終了
    signal.signal(signal.SIGINT, signal.SIG_DFL)
    # SocketIO Client インスタンスを生成
    sio_client = SocketIOClient('localhost', 10000, '/test', 'secret')
    # SocketIO Client インスタンスを実行
    sio_client.run()
    # データを送信
    for i in range(10):
        sio_client.sendData({'test_data': 'send_from_client'})
        sio_client.emitData({'test_data': 'emit_from_client'})
        time.sleep(1)
    # 切断
    sio_client.disconnect()
    logger.info('Finish')
    # 終了
    exit()

備考

  • namespaceは、必ず「/」(スラッシュ)から始まる必要がある
  • 上記テンプレートは、サーバーと通信テストができる

まとめ


  • Python-SocketIOを利用したクライアントモジュールを作成した

参考文献



変更履歴


  1. 2019/08/17: 新規作成

PythonでSocketIO(サーバー編)

背景


PythonでSocketIO通信を行う必要があったため、今後の開発の効率化のためにSocketIO通信を行うクラスのテンプレートを作成する。

記事の目的


PythonでSocketIOサーバーを作成する

python-socketio


python-socketioを使用したSocketIOサーバーを作成する

選定理由

python-socketioの選定理由は、下記の通りである。

導入方法

python-socketioの導入手順は、下記の通りである。
  1. pipを利用してインストールする
  2. $ pip install requests eventlet python-socketio

テンプレート

python-socketioの使用テンプレートは、下記の通りである。
# socketioライブラリのインポート
import socketio
# ログ出力用ライブラリのインポート
from logging import getLogger, StreamHandler, DEBUG, INFO, ERROR
# 時間関係ライブラリのインポート
import time
# 終了シグナルをキャッチするライブラリのインポート
import signal
# eventletライブラリのインポート
import eventlet
# マルチスレッドライブラリをインポート
import threading

# ロガーのインスタンス作成
logger         = getLogger(__name__)
stream_handler = StreamHandler()

# ログレベルを設定
log_level = INFO
logger.setLevel(log_level)
stream_handler.setLevel(log_level)

# ロガーにハンドラーをセット
logger.addHandler(stream_handler)

# SocketIOのテンプレート
class SocketIOServer:
    # namespaceの設定用クラス
    class NamespaceClass(socketio.Namespace):
        def on_connect(self, sid, environ):
            pass
        def on_disconnect(self, sid):
            pass
        def on_message(self, sid, data):
            pass
        def on_client_to_server(self, sid, data):
            pass
    # 接続時に呼ばれるイベント
    def on_connect(self, sid, environ):
        logger.info('Connected to client (sid: %s, environ: %s)',\
                     str(sid), str(environ))
        self.is_connect_ = True
    # 切断時に呼ばれるイベント
    def on_disconnect(self, sid):
        logger.info('Disconnected from client (sid: %s)',str(sid))
        self.is_connect_ = False
    # サーバーからデータ送信(send)する
    def send_data(self, data):
        try:
            self.sio_.send(data, namespace=self.namespace_) 
        except:
            logger.error('Has not connected to client')
        else:
            logger.info('Send message %s (namespace="%s")',\
                         str(data), self.namespace_) 
    # 独自定義のイベント名「server_to_client」で、サーバーからデータ送信(emit)する
    def emit_data(self, data):
        try:
            self.sio_.emit('server_to_client', data, namespace=self.namespace_)
        except:
            logger.error('Has not connected to client')
        else:
            logger.info('Emit message %s (namespace="%s")',\
                         str(data), self.namespace_) 
    def on_message(self, sid, data):
        logger.info('Received message %s', str(data)) 
        self.send_data({'test_ack': 'send_from_server'})
    # クライアントからイベント名「on_client_to_server」でデータがemitされた時に呼ばれる
    def on_client_to_server(self, sid, data):
        logger.info('Received message %s', str(data))
        self.emit_data({'test_ack': 'emit_from_server'})
    # Namespaceクラス内の各イベントをオーバーライド
    def overload_event(self):
        self.Namespace.on_connect          = self.on_connect
        self.Namespace.on_disconnect       = self.on_disconnect
        self.Namespace.on_message          = self.on_message
        self.Namespace.on_client_to_server = self.on_client_to_server
    # 初期化
    def __init__(self,ip,port,namespace):
        self.ip_          = ip
        self.port_        = port
        self.namespace_   = namespace
        self.is_connect_  = False
        self.sio_         = socketio.Server(async_mode='eventlet')
        self.app_         = socketio.WSGIApp(self.sio_)
        self.Namespace    = self.NamespaceClass(self.namespace_)
        self.overload_event()
        self.sio_.register_namespace(self.Namespace)
    # 接続確認
    def isConnect(self):
        return self.is_connect_
    # 切断
    def disconnect(self,sid):
        try:
            self.sio_.disconnect(sid,namespace=self.namespace_)
        except:
            logger.error('Cannot disconnect from Client(sid="%s", namespace="%s")',\
                          namespace=self.namespace_)
        else:
            self.is_connect_ = False
    # 開始
    def start(self):
        try:
            logger.info('Start listening(%s:%d, namespace="%s")',\
                         self.ip_,self.port_,self.namespace_)
            eventlet.wsgi.server(eventlet.listen((self.ip_, self.port_)), self.app_)
        except: 
            logger.error('Cannot start listening(%s:%d, namespace="%s")',\
                          self.ip_,self.port_,self.namespace_)
    # メインの処理
    def run(self):
        p = threading.Thread(target=self.start)
        p.setDaemon(True)
        p.start()

if __name__ == '__main__':
    # Ctrl + C (SIGINT) で終了
    signal.signal(signal.SIGINT, signal.SIG_DFL)
    # SocketIO Server インスタンスを生成
    sio_server = SocketIOServer('localhost', 10000, '/test')
    # SocketIO Server インスタンスを実行
    sio_server.run()
    # 接続待ち
    while not sio_server.isConnect():
        time.sleep(1)
    # 切断待ち
    while sio_server.isConnect():
        time.sleep(1)
    logger.info('Finish')
    # 終了
    exit()

備考

  • namespaceは、必ず「/」(スラッシュ)から始まる必要がある
  • eventletを使用した場合、他の作業スレッドから、SocketIO内のEmitやSendを呼び出せない
  • 上記テンプレートは、クライアントと通信テストができる

まとめ


  • Python-SocketIOを利用したサーバーモジュールを作成した

参考文献



変更履歴


  1. 2019/08/17: 新規作成

2019/08/15

クローンしたUbuntuをIntel NUC上で起動した際に、OSが起動しなくなる問題の対処法

背景


Intel NUCへUbuntuをクローンして同一環境のPCを増やした際に、"no bootable devices found"のメッセージが表示され、OSが起動しなくなった。

記事の目的


Intel NUC上で、クローンしたUbuntu起動できるようにする

フォールバック起動に変更


ここでは、起動しない原因と対処法について記載する。

起動しない原因

クローンしたUbuntuが起動しない原因は下記の通りである。
  • EFI下では、OSを起動するブートローダーにはUbuntuなどのOS固有の名称が付けられる
  • マシンがブートローダーを検索できるように、ブートローダーをファームウェアのNVRAMに登録する必要がある
  • 通常のインストール時には、NVRAMへの登録も自動的に行われる
  • クローンした場合はNVRAMへの登録が行われないため、ブートローダーが見つけられず、OSを起動できない

対処方法

EFI下では、ブートローダーが見つからない場合、フォールバックとして起動するブートローダー名が設定されている。
そこで、フォールバック用のブートローダーを作成する。
  1. メディアブート等でOSを起動する
  2. 対象のOSがインストールされたメディア(SSD、HDD)の中のEFI System Partition (ESP)をマウントする
  3. EFI/BOOTディレクトリ(フォールバック用のブートローダーディレクトリ)を作成する
  4. EFI/ubuntu/*を、EFI/BOOT/*へコピーする

対処方法例(Ubuntuメディアブートの場合)

Ubuntuメディアブートを行った場合の対処方法は、下記の通りである。
$ sudo fdisk -l
Device        Start      End  Sectors  Size Type
/dev/sda1      2048  1128447  1126400  550M EFI System
/dev/sda2   1128448 79626398 78497951 37.4G Linux filesystem
/dev/sda3  79628288 85917854  6289567    3G Linux swap
$ sudo mount /dev/sda1 /mnt #「Type」が「EFI System」のものをマウントする
$ cd /mnt
$ sudo mkdir EFI/BOOT #フォールバック用のブートローダーディレクトリ
$ sudo cp EFI/ubuntu/* EFI/BOOT/

まとめ


  • EFI下のPCでクローンしたUbuntuを使用する場合、OSが起動しなくなる問題の原因と対策について記載した

参考文献



変更履歴


  1. 2019/08/15: 新規作成

Blogger上でコードを埋め込む方法

背景


ソフトウェアエンジニアとして活動する中で、個人の備忘録をかねてBloggerで技術メモを作成することにした。記事内でコードを表示する場合があるため、Bloggerの記事でコードを埋め込む方法を調査した。

記事の目的


Bloggerの記事でコードを表示する

google-code-prettify


ここでは、技術メモ内におけるコードの埋め込み方法について記載する。技術メモでは、基本的にgoogle-code-prettifyでコードの表示を行う。

選定理由

google-code-prettifyの選定理由は、下記の通りである。
  • 複数の言語をサポートしている
  • 行番号を表示できる
  • PC表示時にスクロールバーを表示可能
  • 導入が容易

導入方法

google-code-prettifyの導入手順は、下記の通りである。
  1. Blogger管理画面を開く
  2. 「テーマ」 を選び、 「HTMLの編集」をクリックする
  3. 下記Javascriptコードを、html内の<head>...</head>に貼り付ける
  4. <!-- google-code-prettify -->
        <script src='https://cdn.rawgit.com/google/code-prettify/master/loader/run_prettify.js?skin=sons-of-obsidian'/>
        <style type='text/css'>
            pre.prettyprint {
          overflow: auto;
            }
            .prettyprint ol.linenums &gt; li {
                list-style-type: decimal; 
            }
        </style>
    <!-- /google-code-prettify -->

使用方法

google-code-prettifyの使用方法は、下記の通りである。
<pre class="prettyprint linenums">
int sample_code(int b)
{
    int a = 10;
    a += b;
    return a;
}
</pre>
上記の通り記述すると、下記のように表示される。
int sample_code(int b)
{
    int a = 10;
    a += b;
    return a;
}

備考

  • 下記のように、言語を指定することも可能である。指定できる言語は、ここを参照。
  • <pre class="prettyprint lang-yaml linenums" >
    - name : tomato
      email: tomato@gmail.com
    - name : potato
      email: potato@gmail.com
    </pre>
  • 記事にコード埋め込む際は、HTMLに直接記述する。「作成」で記述した場合、正しく作成されない場合がある
  • <style type='text/css'>...</style>にスタイルに関する記述を追記することで、見た目の変更が可能である
  • Javascriptコードの4-6行目で、スクロールバー表示を設定している
  • Javascriptコードの7-9行目で、行番号を毎行表示に設定している

まとめ


  • 技術メモ作成にあたり、Bloggerにコードを表示させる方法を記述した
  • google-code-prettifyは、htmlの<head>...</head>間に、該当Javascriptコードを記入することで使用可能である

参考文献



変更履歴


  1. 2019/08/15: 新規作成
  2. 2019/08/23: 備考追記

Blogger上で数式を表示する方法

背景


ソフトウェアエンジニアとして活動する中で、個人の備忘録をかねてBloggerで技術メモを作成することにした。記事内で数式を扱う場合があるため、Bloggerの記事で数式を表示する方法を調査した。

記事の目的


Bloggerの記事で数式を表示する

MathJax


ここでは、技術メモ内における数式の作成方法について記載する。
技術メモでは、基本的にMathJaxで数式の作成を行う。

選定理由

MathJaxの選定理由は、下記の通りである。
  • Tex形式で数式を記述できる
  • ブログ記事内に直接数式を記述することで、数式が自動生成される

導入方法

MathJaxの導入手順は、下記の通りである。
  1. Blogger管理画面を開く
  2. 「テーマ」 を選び、 「HTMLの編集」をクリックする
  3. 下記Javascriptコードを、html内の<head>...</head>に貼り付ける
  4. <!-- MathJax -->
    <script 
      src='https://cdnjs.cloudflare.com/ajax/libs/mathjax/2.7.1/MathJax.js'
      type='text/javascript'>    
      MathJax.Hub.Config({
        HTML: ['input/TeX','output/HTML-CSS'],
        TeX: { extensions: ['AMSmath.js','AMSsymbols.js'], 
          equationNumbers: { autoNumber: 'AMS' } },
          extensions: ['tex2jax.js'],
          jax: ['input/TeX','output/HTML-CSS'],
          tex2jax: { inlineMath: [ ['$','$'], ['\\(','\\)'] ],
          displayMath: [ ['$$','$$'], ['\\[','\\]'] ],
          processEscapes: true },
          'HTML-CSS': { availableFonts: ['TeX'],
          linebreaks: { automatic: true } }
      });
    </script>
    <!-- /MathJax -->

使用方法

MathJaxの使用方法は、下記の通りである。

  • インライン表示の場合
  • インライン表示: $e^{i\pi}=-1$
    
    インライン表示: $e^{i\pi}=-1$
  • 独立行表示の場合
  • $$\sum_{i=1}^{n}i = \frac{1}{2}n(n+1)$$
    
    $$\sum_{i=1}^{n}i = \frac{1}{2}n(n+1)$$

備考

  • MathJaxのJavascriptコードURL:(https://cdnjs.cloudflare.com/ajax/libs/mathjax/2.7.1/MathJax.js)は将来的に変更される可能性がある。有効なURLはMathJaxのGetting Startに記載されている。
  • Broggerのテーマによっては、数式が表示されない。現状動作確認しているのは、「シンプル」のみである。
  • BroggerのテーマのHTMLを編集する際、「"」(ダブルクオート)を使用すると、文字化けし、正しく動作しない場合がある。 

まとめ


  • 技術メモ作成にあたり、Bloggerに数式を表示させる方法を記述した
  • MathJaxは、htmlの<head>...</head>間に、該当Javascriptコードを記入することで使用可能である

参考文献



変更履歴


  1. 2019/08/15: 新規作成

MQTTの導入

背景 IoTデバイスの接続環境構築のため、MQTT(mosquitto)の導入を行った。 記事の目的 MQTT(mosquitto)をUbuntuに導入する mosquitto ここではmosquittoについて記載する。 MQTT MQTT(Message Qu...