ビットの海

ゆるふわソフトウェアエンジニアしゃぜのブログ

fire HD 8 (2016)が来てから1週間

f:id:shase428:20161001164529j:plain

古いiPadを長らく使っていたのですが、電子書籍のリーダーとして見たときにいくつか欠点があって、新しいタブレットを探していました。

iPadというか、iOSの思想的なところなんですが、やっぱり自炊した本、電子書籍書店で買った本なんかを読むときに、不便を感じます。

  • microSDなどの外部メディアが使用できること
  • ftpdなどを用意に立ち上げられること(自宅のLAN内で、PCからの直接転送をしたい)

これらの機能が欲しいなと思い、8インチクラスでいろいろ探していたんですが、ちょうどfire HDの新型が出るということで、世間のレビューも待たずに買うことにしました。

Primeじゃない定価で、16GBモデルを購入。

特に不満はないんですが、感想をちょっとだけ。

  • iPad,iPhoneの液晶に目が慣れたせいか、やっぱり、液晶は見劣りするが、値段相応
  • 解像度はまぁまぁ、本を読むのがメインだと気にならないレベル
  • fireOSのストアは、google playに比べれば、当然アプリは少ないんですが、ノンサポートでAPKを配ってるところもあるのであまり気にならず(例えば、KADOKAWA BookWalkerとか)

12,980で買える8インチタブレットしては上々ではないでしょうか。

Fire HD 8 タブレット 16GB、ブラック

Fire HD 8 タブレット 16GB、ブラック

Amazon Fire HD 8 (Newモデル) 用カバー ブラック

Amazon Fire HD 8 (Newモデル) 用カバー ブラック

自分のsshのpassphrase忘れた愚か者がクラックする話

タイトルそのまんまなんだが...

想定する環境

  • homebrewが使えるMac

John the Ripper導入

brew install john

もし、opensslが入っていなかったら入れておく

brew install openssl

ssh-privkey-crack.cを拾ってきてコンパイル

curl -O https://raw.githubusercontent.com/Boran/lusas/master/ssh-key-crack/ssh-privkey-crack.c
cc -I/usr/local/opt/openssl/include -L/usr/local/opt/openssl/lib -o ssh-privkey-crack ssh-privkey-crack.c -lssl -lcrypto 
chmod +x ssh-privkey-crack

いざ解析

john --stdout --incremental | ./ssh-privkey-crack .ssh/{target_key}

まぁ、これはインクリメンタルに探していくわけで、凝ったパスワードの場合やはり時間がかかる。

私の場合は、いくつか候補があって、どれかわからんかったので、候補ファイルを別途つくってそれを食わせてなんとかしました。

wordlist.txtにずらずら候補を並べただけ。

john --stdout --wordlist=./wordlist.txt |./ssh-privkey-crack .ssh/{target_key}

マッチするとこんなんが出る

------------------------------------------------------------------------ -- -
Passphrase match: <xxx>. Found password after 0 seconds and 0 tries.
-------------------------------------------------------------------------- -- -

愚か者の戦いはこれで終わり

参考にしました

ssh 鍵のパスフレーズを忘れたら

tmux-csshで複数サーバに対するカジュアルなオペレーション

このてのソリューションはいくつかありますが、最近は、tmux-csshが向いてる作業はこれでやってます。

本家

想定する環境

  • homebrewがつかえる環境

導入

$ brew install tmux-cssh

実際のオペレーションサンプル

ターミナル(item2など)から (LDAPでホストが同一ユーザー、同一パスワードでログインできる場合)

接続

$ tmux-cssh -u username host1 host2 host3 host4

見た目イメージ

  • tmuxのペインが複数ひらく。[ctrl + b] + n など、tmuxの操作で普通に移動可能
  • 打ったコマンドは全部のhostに送られる

f:id:shase428:20160805142231p:plain

AWS JavaSDKを使ってEMRでjsonログをごにょっとするメモ

はじめに

  • Webの資料も少ないEMRと、AWS JavaSDKを利用して、jsonログをHiveから処理するための流れについて簡単にまとめました。
  • jdbc接続そのものの記述も省略しています。(DataSouceの定義など)

想定する構成

構成図

f:id:shase428:20160404192714p:plain

各種ソフトウェアのバージョン

  • JDK 1.8
  • EMR AMI 4.x
  • AWS JavaSDK 1.10.40
  • Spring Boot 1.x

一般的な注意点

  • Webの情報の新しさに注意
    • EMR AMIは3系と4系でかなり違っています。情報を参照する場合は、EMR AMIのバージョンに注意してください。

EMRクラスタの作成と削除

サンプルコード

EMRクラスタは、EMR APIを利用して作成することができます。クラスタ起動から、シャットダウンまでのサンプルコードを下記に記載します。

Client.Java

public class Client {

    public static void main(String args[]) {
        EmrService emrService = new EmrService();

        // 1.EMRクライアントの初期化
        emrService.init();
        // 2.EMRクラスタの起動
        String jobFlowId = emrService.lunchCluster();
        // 3.EMRクラスタの状態確認(起動中、待機中、など)
        emrService.getClusterStatus(jobFlowId);
        // 4.EMRクラスタのシャットダウン
        emrService.terminateCluster(jobFlowId);
    }

}

EmrService.java


import java.util.ArrayList;
import java.util.List;

import com.amazonaws.auth.AWSCredentials;
import com.amazonaws.auth.AWSCredentialsProvider;
import com.amazonaws.auth.BasicAWSCredentials;
import com.amazonaws.internal.StaticCredentialsProvider;
import com.amazonaws.regions.Region;
import com.amazonaws.regions.Regions;
import com.amazonaws.services.elasticmapreduce.AmazonElasticMapReduceClient;
import com.amazonaws.services.elasticmapreduce.model.ActionOnFailure;
import com.amazonaws.services.elasticmapreduce.model.Application;
import com.amazonaws.services.elasticmapreduce.model.DescribeClusterRequest;
import com.amazonaws.services.elasticmapreduce.model.DescribeClusterResult;
import com.amazonaws.services.elasticmapreduce.model.HadoopJarStepConfig;
import com.amazonaws.services.elasticmapreduce.model.JobFlowInstancesConfig;
import com.amazonaws.services.elasticmapreduce.model.PlacementType;
import com.amazonaws.services.elasticmapreduce.model.RunJobFlowRequest;
import com.amazonaws.services.elasticmapreduce.model.RunJobFlowResult;
import com.amazonaws.services.elasticmapreduce.model.StepConfig;
import com.amazonaws.services.elasticmapreduce.model.TerminateJobFlowsRequest;

public class EmrService {

    private AmazonElasticMapReduceClient emrClient;

    /**
    * AmazonElasticMapReduceClientを生成する
    */
    public void init() {
        AWSCredentials cred = new BasicAWSCredentials("accessKey", "secretKey");
        AWSCredentialsProvider credentialsProvider = new StaticCredentialsProvider(cred);
        emrClient = new AmazonElasticMapReduceClient(credentialsProvider);
        // リージョンを指定
        emrClient.setRegion(Region.getRegion(Regions.AP_NORTHEAST_1));
    }

    /**
    * クラスタの起動
    *
    * @return
    */
    public String lunchCluster() {


        Application hive = new Application();
        hive.withName("Hive");// hiveのinstall

        RunJobFlowRequest request = new RunJobFlowRequest()
                .withName("clusterName") // クラスタ名
                .withApplications(hive)
                .withLogUri("s3buket") // S3のバケットのpath
                .withReleaseLabel("emr-4.2.0") // EMR AMIバージョン
                .withServiceRole("EMR_DefaultRole")
                .withJobFlowRole("EMR_EC2_DefaultRole")
                .withVisibleToAllUsers(true)
                .withSteps(this.buildStepConfig().toArray(new StepConfig[0]))
                .withInstances(new JobFlowInstancesConfig()
                        .withInstanceCount(2) // インスタンス数
                        .withKeepJobFlowAliveWhenNoSteps(true)
                        .withPlacement(new PlacementType().withAvailabilityZone("ap-northeast-1a"))
                        .withEc2KeyName("ec2-key-name")
                        .withMasterInstanceType("master-instance-type")
                        .withSlaveInstanceType("slave-instance-type"));

        RunJobFlowResult result = emrClient.runJobFlow(request);
        return result.getJobFlowId(); // jobFlowIdは停止などに必要
    }

    private List<StepConfig> buildStepConfig() {
        List<StepConfig> result = new ArrayList<>();

        String[] args = {
                "s3-dist-cp"
                , "--src", "s3のpath"
                , "--dest", "hdfsのpath"
                , "--groupBy", "正規表現"
                , "--targetSize", "MB指定"
        };

        StepConfig s3DistCpStep = new StepConfig()
                .withName("S3distCp")
                .withActionOnFailure(ActionOnFailure.CONTINUE)
                .withHadoopJarStep(
                        new HadoopJarStepConfig()
                                .withJar("command-runner.jar")
                                .withArgs(args)
                );

        result.add(s3DistCpStep); // サンプルなので、1つしか定義してないが、複数定義可能
        return result;
    }

    /**
    * クラスタの状態を確認する
    *
    * @param jobFlowId
    */
    public void getClusterStatus(String jobFlowId) {
        DescribeClusterResult describeClusterResult = emrClient.describeCluster(new DescribeClusterRequest().withClusterId(jobFlowId));
        System.out.println(describeClusterResult.getCluster().getStatus().toString());
        System.out.println(describeClusterResult.getCluster().getMasterPublicDnsName());
    }

    /**
    * クラスタを停止させる
    *
    * @param jobFlowId
    */
    public void terminateCluster(String jobFlowId) {
        emrClient.terminateJobFlows(new TerminateJobFlowsRequest().withJobFlowIds(jobFlowId));
    }

}

S3から、HDFSへのログのコピー

S3上のログファイルに対して、直接hiveテーブルを作成し、操作することも可能ですが、速度が犠牲になってしまいます。他の要素とのトレードオフですが、今回は、s3-dist-cpを利用して、s3上のログファイルを一定サイズまでマージして、HDFSにコピーすることとします。

実際の処理は、EMRのjobStepで行います。下記のドキュメントを参照してください。 http://docs.aws.amazon.com/ElasticMapReduce/latest/ReleaseGuide/UsingEMR_s3distcp.html

SDKを利用した実装のサンプルは下記になります。(前記、EmrService.javaの抜粋です)


    /**
    * クラスタの起動
    *
    * @return
    */
    public String lunchCluster() {

        Application hive = new Application();
        hive.withName("Hive");

        RunJobFlowRequest request = new RunJobFlowRequest()
                .withName("clusterName") // クラスタ名
                .withApplications(hive)
                .withLogUri("s3buket") // S3のバケットのpath
                .withReleaseLabel("emr-4.2.0") // EMR AMIバージョン
                .withServiceRole("EMR_DefaultRole")
                .withJobFlowRole("EMR_EC2_DefaultRole")
                .withVisibleToAllUsers(true)
                .withSteps(this.buildStepConfig().toArray(new StepConfig[0]))
                .withInstances(new JobFlowInstancesConfig()
                        .withInstanceCount(2) // インスタンス数
                        .withKeepJobFlowAliveWhenNoSteps(true)
                        .withPlacement(new PlacementType().withAvailabilityZone("ap-northeast-1a"))
                        .withEc2KeyName("ec2-key-name")
                        .withMasterInstanceType("master-instance-type")
                        .withSlaveInstanceType("slave-instance-type"));

        RunJobFlowResult result = emrClient.runJobFlow(request);
        return result.getJobFlowId(); // jobFlowIdは停止などに必要
    }

    private List<StepConfig> buildStepConfig() {
        List<StepConfig> result = new ArrayList<>();

        String[] args = {
                "s3-dist-cp"
                , "--src", "s3のpath"
                , "--dest", "hdfsのpath"
                , "--groupBy", "正規表現"
                , "--targetSize", "MB指定"
        };

        StepConfig s3DistCpStep = new StepConfig()
                .withName("S3distCp")
                .withActionOnFailure(ActionOnFailure.CONTINUE)
                .withHadoopJarStep(
                        new HadoopJarStepConfig()
                                .withJar("command-runner.jar")
                                .withArgs(args)
                );

        result.add(s3DistCpStep); // サンプルなので、1つしか定義してないが、複数定義可能
        return result;
    }

JDBCからHiveクエリの実行

EMRで、クラスタが起動後、Hadoop上の、Hiveの操作に移ります。

JDBCアクセスするための事前準備

EMR上のhiveに対し、JDBCアクセスをするためには、専用のドライバをアプリケーションに組み込む必要があります。詳細については、下記のドキュメントを参考にしてください。 http://docs.aws.amazon.com/ElasticMapReduce/latest/ReleaseGuide/HiveJDBCDriver.html

上記ドキュメントに添付されている、

Hive 1.0 JDBC drivers (driver version 1.0.4): https://amazon-odbc-jdbc-drivers.s3.amazonaws.com/public/AmazonHiveJDBC_1.0.4.1004.zip

こちらのzipファイルを解凍すると、readmeと、jarファイルがいくつか添付されてきます。 こちらのjarを直接Javaアプリケーションに組み込んで仕様してください。

jsonログのパーサーを用意

EMRで、jsonログを読み込む際に、Webの多くの資料では、 s3://elasticmapreduce/samples/hive-ads/libs/jsonserde.jar を使う手順が紹介されていると思います。

しかし、こちらは、複雑なjsonに対応できていない、古いバグが放置されている、などの問題がありました。

そこで、今回は、serdeのライブラリとして下記をビルドして使います。

https://github.com/rcongiu/Hive-JSON-Serde

こちらから以下の手順でjarをつくり、s3上の適当な場所に配置して、hiveから利用してください。

git clone https://github.com/rcongiu/Hive-JSON-Serde.git
cd Hive-JSON-Serde
mvn -Dmaven.test.skip=true package

アプリケーションから、EMRへのconnectivity

JDBC接続するためには、IP接続可能な状態でなければいけません。hiveクエリ発行前に、sshトンネルを利用して、hadoopのmasterにセッションを作成します。下記にサンプルコードを記述します。 sshトンネルのために、jschを利用しています。

import java.util.Date;

import com.jcraft.jsch.JSch;
import com.jcraft.jsch.Session;


  // クラスタ起動時渡されるMasterPublicDnsNameを仕様します
    public void execute(String masterPublicDnsName) {
            Session session = null;

            String sshUser = "hadoop";
            int sshPort = 22;

            String strRemoteHost = "127.0.0.1";
            int localPort = 10005;
            int remotePort = 10000;

            final JSch jsch = new JSch();
            jsch.addIdentity("AWSで利用できるEC2用pemファイルのpath");
            session = jsch.getSession(sshUser, masterPublicDnsName, sshPort);

            final Properties config = new Properties();
            config.put("StrictHostKeyChecking", "no");
            session.setConfig(config);

            try {
                // ssh接続
                session.connect();
                // portフォワード
                session.setPortForwardingL(localPort, strRemoteHost, remotePort);
                //todo: hiveクエリの発行など
            } catch (Exception e) {
                //todo:
            } finally {
        // sessionをとじる
                session.disconnect();
            }
  }

Hiveテーブルの作成

JDBC経由で以下のようなコードでhiveテーブルを作成します。 HDFS上のログは、HDFS上に、yyyyMMddのディレクトリで、日付ごとに格納されていると想定しています。 よって、日付単位でのパーティションを作成しています。

private JdbcTemplate jdbcTemplate; // springのjdbcTemplate事前に生成しておく

public void createTargetTable(Date targetDate) {
  jdbcTemplate.execute("add jar " + "s3のパス" + "json-serde-1.3.7-SNAPSHOT-jar-with-dependencies.jar");

  jdbcTemplate.execute("drop table if exists sample_table");

  StringBuilder createTable = new StringBuilder();
  createTable.append("CREATE EXTERNAL TABLE IF NOT EXISTS sample_table ( ");
  createTable.append(" Value string,");
  createTable.append(" Id bigint,");
  createTable.append(" )");
  createTable.append(" PARTITIONED BY ( PT STRING )");
  createTable.append(" row format serde 'org.openx.data.jsonserde.JsonSerDe'");
  createTable.append(" with serdeproperties ('paths'='Id,Value')");

  jdbcTemplate.execute(createTable.toString());

  ZonedDateTime targetDay = targetDate.toInstant().atZone(ZoneId.systemDefault());
  ZonedDateTime nextDay = DateUtils.addDays(targetDate, 1).toInstant().atZone(ZoneId.systemDefault());

  StringBuilder partitionTargetday = new StringBuilder();
  partitionTargetday.append("ALTER TABLE sample_table ADD PARTITION ( pt='");
  partitionTargetday.append(targetDay.format(DateTimeFormatter.ISO_LOCAL_DATE));
  partitionTargetday.append("' ) LOCATION '");
  partitionTargetday.append("HDFS上のパス");
  partitionTargetday.append(targetDay.format(DateTimeFormatter.ofPattern("yyyyMMdd")));
  partitionTargetday.append("/'");

  jdbcTemplate.execute(partitionTargetday.toString());

}

JDBC経由でのクエリ発行

テーブル作成後は、通常のJDBC接続で、RDBに接続するように、Hiveクエリの発行が可能です。 実行例を下記に記します。

// 含まれているデータベース一覧を取得
jdbcTemplate.execute("show dabases");

参考資料

プログラミング Hive

プログラミング Hive

いまさらiphone6sに機種変しました

f:id:shase428:20160402234159j:image

auからクーポン来たので、そろそろ5cも辛くなってきたし、SEにするかぁ、と思って行ったら結果6sにしてた。。。

なんか大きい画面を一度見てしまうと、どうにもSEにする気になれず。

しっかしキャリアでふつーに契約すると月額料金相変わらず、すごいことになるよねぇ。MVNOちょっと考えよう(´・_・`)

infrastructure as codeとredfish apiのメモ

概要

(redshiftだと思った人はごめん。)

先日この記事を読みました。

私は Infrastructure as Code をわかっていなかった - メソッド屋のブログ

infrastructure as codeは、VM環境の場合は、VMのコントロールをすること、になるだろうし(例えば、AWSSDKなどから)、物理環境の場合だと、リモートから物理サーバ起動して、bios(UEFI)の設定して、みたいなことになるんだろうと思っています。従来担っていたのは、IPMIなどの仕組みですね。

ふと、2014年ごろに、話題になった、アレ(ポストIPMIが期待される規格)はその後どうなったのかと思い出しました。

News & Trend - データセンターの運用を簡単に、インテルなど大手6社が標準を策定へ:ITpro

結論から言ってしまうと、ポストIPMIは、2015年に、redfish apiという規格にまとまっていたのでした。

REDFISH | DMTF

Dell/HP/Intel/Emerson が構築する Redfish は、IPMI 以来のスタンダードになり得るのか? | Agile Cat --- in the cloud

ざっとネット見た感じ、すでにHP iLO4とかで使えるらしいですね。

概要はこれを見れば良いと思います。以下はただの余談です。

Redfish: サーバ管理のための新しいAPI

余談

IPMIを使ったことのある人はわかると思うのですが、アレでなにかしようととすると、当たり前ですが、低レイヤな知識をかなり要求されるので、現代のゆるふわゆとりエンジニア(俺)には辛いものがあります。たぶん、みんな辛いと思っていたので、Webの世界で一般的なRestfulのAPIで、ハードウェアの操作ができたらいいね、っていうことらしいです。

前述の記事にもあるけど、大手のvendorが組んでできたのが、refish apiの規格。

ここにjsonのmockがあります。

Simple Rack-mounted Server | Redfish Resource Explorer

出力見るとIPMIっぽいですね。

詳細はSPECどうぞ

REDFISH | DMTF

といってもボリュームあって、辛いので、導入としてははこの資料がわかりやすいです。

https://www.dmtf.org/sites/default/files/Introduction_to_Redfish_2015.pdf

幾つか拾うと

  • 今時SOAPじゃなくて、RESTだろう常考
  • 人が見やすい形式でoutputするよ
  • OCP Remote Machine Managementに準拠してるよ
  • IPMIをRetrieveしてるよ

って感じで、ああ、今風を目指したんだなーと。あと、欧米はpythonjava好きだなーという感想をうけましたw

おわりに

各vendorのツールが、redfishに準拠すれば、データセンターの辛いことも、少しは辛くなくなるのかもしれないですね。

ただ、今や(自分も含め)クラウドの普及によって、実際のハードウェアと向き合う人の数は相当減っているので、IPMIと同じくらいか、それ以下のニッチなナレッジにとどまるかもしれないなぁ、とは思います。

実機を触れる幸せな方は試してみていかがでしょうか。

IPMIさんおつかれさまでした。

Linuxデバイスドライバプログラミング

Linuxデバイスドライバプログラミング

部屋の温度をMackerelで眺める

前回の「Raspberry Pi 2 Model Bで部屋の温度計を作ってみよう」で温度計を作ってみたので、外出先でも、その値を参照できるように今回は監視システムに飛ばしてみます。

最初、zabbixを自分で立てることも考えたんですが、スマホで見えると便利だよなーと思い直し、今回はMackerelのフリー版を使ってみます。

ラズパイにMackerel Agentを導入

こちらを参考にしました。とても簡単ですねー。 qiita.com

# tar.gzをdownload
wget https://github.com/mackerelio/mackerel-agent/releases/download/v0.28.0/mackerel-agent_linux_arm.tar.gz

# 解凍
tar xvfz mackerel-agent_linux_arm.tar.gz

# optの下に移動
sudo mv mackerel-agent_linux_arm /opt/mackerel-agent

さて、ここまでやったら、下記のURLから、MackerelのAPIキーを確認します。

https://mackerel.io/orgs/{organization名}#apikey

設定ファイルをつくります。

sudo sh << SCRIPT
cat >>/opt/mackerel-agent/mackerel-agent.conf <<'EOF';
apikey = "{APIキー}"
EOF
SCRIPT

カスタムメトリクス用の設定

前回「Raspberry Pi 2 Model Bで部屋の温度計を作ってみよう」で、動くようにしたコマンドを使って、簡単な出力をするシェルをつくります。

vi /home/pi/temper-agent.sh
#!/bin/sh

ID="temperature"
TEMP=`/home/pi/temper/temper |awk -F ',' '{print $2}'`
DATE=`env TZ=JST date +%s`

echo "${ID}\t${TEMP}\t${DATE}"
chmod +x /home/pi/temper-agent.sh

agentの設定ファイルに下記を追記

vi /opt/mackerel-agent/mackerel-agent.conf
[plugin.metrics.temperature]
command = "/home/pi/temper-agent.sh"

Mackerel Agent起動

sudo nohup /opt/mackerel-agent/mackerel-agent --conf=/opt/mackerel-agent/mackerel-agent.conf &

Mackerel みてみよう

さて、ここまでやると、グラフが出るようになると思います(電球の下においてあるので温度がおかしいですがw) 便利な世の中ですねぇ。。。

f:id:shase428:20160207015515p:plain:w400

スマホでも監視ができるようになりました!

ダッシュボードに設定すると見やすいですね^^