MNPで携帯電話を乗っ取りSMS認証を突破される

さっきまで使えてたスマホ、通話音が…しない 勝手に解約されたかも 被害男性の証言

偽造運転免許証をもちいて携帯電話のMNPを申込みんで携帯電話を乗っ取り、オンラインバンクのSMS認証を突破されてしまうという問題が多数発生しているらしい。記事の中でも「パスワードを使い回さないなど、やはり個人の対策が重要だ」と書かれているとおり、一番の問題はパスワードを適切に管理出来て居なかった事にある。

SMSを使用した多要素認証は、NIST(米国立標準技術研究所)でも条件付き推奨としている。推奨するための条件は、「他の認証方式と併用すること」「代替の認証方法を用意すること」「危険性の評価し公表すること」三つだ。SMSは電話会社での管理が適切である事を前提としており、技術的あるいは社会的方法で容易に突破されうる事が分かっているからだ。

SMSは攻撃に弱い認証方法であるという前提を理解して、正しくパスワードによる認証を使う事が大事です。「サービス毎に異なるパスワードを使う」「パスワードはランダムな文字列にする」「前述二つを実施するのはパスワード管理ツール無しでは無理なので、適当なツールを利用する」の三点をしっかりまもろう。

そしてエンジニアもSMS認証は弱いと言う事をちゃんと認識してサービスを設計しよう。

マイナンバーカードへの保険証統合と、旧保健証廃止に思うこと

マイナンバーカードと保険証を統合して、既存の保険証を原則廃止しようという計画がニュースになってる。落としたら不安とか、再発行に時間がかかりすぎるとか、個人情報が:・・とか色々と反対意見が出てるけど、IT側からの話しをしたい。

IT担当者側からすると「保険証を統合して、既存の保険証を原則廃止する」というのは、かなり酷い仕様変更である。保険証とマイナンバーカードに求められる非機能要件がまったく異なるためだ。

マイナンバーカードは行政業務効率化を目的に設計されている。効率化が目的なので、実は無くても困らない。電子証明書としての機能が使えなくなったとしても、旧来の非効率な業務で仕事をするために、公務員の残業が増えるだけだ。関わるのは申請者本人と行政担当者だけなので、多少の問題は当事者間の交渉で解決できる。本人確認のための身分証としての機能や、印刷されているマイナンバーなんておまけに過ぎない。

保険証は医療保険を使用するときの本人認証と、医療保険の決済手続を目的に設計されている。認証できないと十分な医療を受けられず、健康を損ねたり、人命にかかわる場合もあり得る。また認証上右方に誤りがあると、1件でも数万円~数千万円の損失が発生する。そのためオフラインでの作業も誤りなく行えることが求められる。事業規模的にIT専任担当者を常駐できないことが多い。

要件をざっくり書き出すとこんなに違う。

マイナンバーカード

  • 平日日中16時間稼働、それ以外は止めても問題は少ない。(稼働率99%程度でもよい)
  • 接続拠点数、5,000箇所(1718市町村、出張所や税務署など含めても3倍程度と推測)
  • 希望者のみが使用する。使わない方は従来通りの方法で手続き。
  • 使用頻度は多くても年に数回。使用時のみ携行する。
  • 障害時には従来通り書類手続きで処理。

マイナンバーカード&保険証(旧保険証原則廃止)

  • 24時間365日無停止。保守点検のための停止も難しい。(稼働率99.99%程度は必要か?)
  • 接続拠点数、266,000箇所(病院8,000、診療所102,000、歯科91,000、調剤薬局60,000、自治体など)
  • 全国民が使用する。未成年者や障碍者(おもに視覚障碍者、知的障碍者、認知症患者、四肢麻痺)への配慮が必要。
  • 使用頻度は多ければ毎月。旅行時など常に携行する必要がある。
  • 障害時にはオフライン認証の仕組みが必要。

導入時点でも無茶をすると思ったが、併用ならまだ突貫工事でも(ぶっちゃけシステムが止まっても)なんとかなる。しかし旧保険証を排除するとなると、非機能要件の差が重くのしかかってくるはずだ。

やっかいなのは病院側のセキュリティ対応だ。今の日本のセキュリティ関連の法律は、情報漏洩をさせた場合の罰則が非常に弱い。「セキュリティパッチを当てていない。」「ログインパスワードを共有していた。」など初歩的セキュリティ対策を怠っていたとして、それで善管注意義務として処罰されることは希であるし、情報漏洩に限らず法人に対する罰則は緩いものが多い。現マイナンバー法でも故意に漏洩させたのでは無い限り罰則は無い。現行のままでは早晩情報漏洩を起こすであろうし、かといって厳しくすれば殆どの病院が対応出来なくなる可能性が高い。

良くある非難への反証

マイナンバーカードの再発行には2週間~1ヵ月もかかる。紛失したらどうするのか?→実は健康保険証の再発行にも1週間~2週間かかる。健康保険証を紛失した場合には「健康保険被保険者資格証明書」を即日発行して対応している。「健康保険被保険者資格証明書」の有効期間は1週間程度と極めて短い。同様の代替手段を整備する必要は有るだろう。

Stable Diffusion+Windows 10+AMD GPUの環境で動かす

Stable DiffusionをWindows 10とAMD GPU上で動作させている記事、Running Stable Diffusion on Windows with an AMD GPUを見つけたので、実践。以下は作成してみたサンプル。

stable_diffusion_sample

事前準備

まずは実行環境を確認。
・メモリ6GB以上のAMD GPU
・Pythonの3.7、3.8、3.9、3.10がインストールされている
・Gitがインストールされている。
・Hugging Face(Stable Diffusionの学習済みモデルを公開している)のアカウント
・6GBの学習モデルをダウンロード&変換する勇気

と言うわけでPythonのインストール。PythonはMicrosoft StoreからPython 3.10をインストールしてしまうのが手がかからない。

続いてGitのインストール。私はVisual Studioと一緒にインストールされてしまっているが、単独でインストールするならGit for Windowsをインストールするのが良いかと思う。

さらにHugging Faceにユーザー登録する。ユーザー登録自体は無料。

インストール作業

ますはインストール先となるフォルダを作成する。私はD:\stable-diffusionにした。インストールには15GB程度の空き容量が必要になるはずなので、十分に空きのあるドライブを選ぶこと。PowerShellからコマンドプロンプトを開いて、インストール先フォルダに移動します。

Microsoft’s DirectMLに対応したOnnx runtimeをhttps://aiinfra.visualstudio.com/PublicPackages/_artifacts/feed/ORT-Nightlyからonnxruntime-directmlをダウンロードする。ダウンロードするランタイムはPythonのバージョンによって異なる。Python 3.10.xをインストールしているなら、cp310(onnxruntime_directml-1.12.0-cp310-cp310-win_amd64.whl)をダウンロードする。

コマンドプロンプトまたはPowerShellのプロンプトを開いて以下のコマンドを実行。

python -m venv ./virtualenv
./virtualenv/Scripts/Activate.ps1 または virtualenv\Scripts\activate.bat
pip install diffusers==0.3.0
pip install transformers
pip install onnxruntime
pip install protobuf<3.20.x
pip install onnx
pip install pathToYourDownloadedFile/ort_nightly_whatever_version_you_got.whl --force-reinstall

Stable Diffusionの学習済みモデルをダウンロードするには、ライセンス条項に同意する必要があります。ライセンス条項を確認した上で、Hugging Faceのhttps://huggingface.co/CompVis/stable-diffusion-v1-4のページにアクセスして、「 have read the License and agree with its terms」にチェックをして、Access Repositoryをクリック。

Hugging FaceのAccess Tokenを発行する必要があります。Hugging FaceのWEBページ右上のユーザーアイコンから「Settings→Access Tokens」に進み、Access Tokenを発行します。

プロンプトから以下のコマンドを実行します。

huggingface-cli.exe login

Token:とプロンプトが表示されるので、先ほど発行したAccess Tokenを入力します。「Your token has been saved to ~」と表示されれば大丈夫です。

Stable DiffusionをOnnixに変換するためのスクリプトを「https://raw.githubusercontent.com/huggingface/diffusers/main/scripts/convert_stable_diffusion_checkpoint_to_onnx.py」からダウンロードします。

以下のコマンドを実行します。

python convert_stable_diffusion_checkpoint_to_onnx.py --model_path="CompVis/stable-diffusion-v1-4" --output_path="./stable_diffusion_onnx"

学習モデルのダウンロードと変換に数時間かかります。気長に待ってください。

試しに画像を生成してみます。以下の内容をtext2img.pyとして保存して、プロンプトから実行してみてください。output.pngが無事に生成されればインストール成功です。

from diffusers import StableDiffusionOnnxPipeline
pipe = StableDiffusionOnnxPipeline.from_pretrained("./stable_diffusion_onnx", provider="DmlExecutionProvider")

prompt = "A happy celebrating robot on a mountaintop, happy, landscape, dramatic lighting, art by artgerm greg rutkowski alphonse mucha, 4k uhd'"

image = pipe(prompt).images[0] 
image.save("output.png")

生成する画像サイズや、反復計算する回数などのパラメータを指定する事もできます。それらを指定する場合には以下のコードを参考に書き換えてください。

from diffusers import StableDiffusionOnnxPipeline
import numpy as np

def get_latents_from_seed(seed: int, width: int, height:int) -> np.ndarray:
    # 1 is batch size
    latents_shape = (1, 4, height // 8, width // 8)
    # Gotta use numpy instead of torch, because torch's randn() doesn't support DML
    rng = np.random.default_rng(seed)
    image_latents = rng.standard_normal(latents_shape).astype(np.float32)
    return image_latents

pipe = StableDiffusionOnnxPipeline.from_pretrained("./stable_diffusion_onnx", provider="DmlExecutionProvider")
"""
prompt: Union[str, List[str]],
height: Optional[int] = 512,
width: Optional[int] = 512,
num_inference_steps: Optional[int] = 50,
guidance_scale: Optional[float] = 7.5, # This is also sometimes called the CFG value
eta: Optional[float] = 0.0,
latents: Optional[np.ndarray] = None,
output_type: Optional[str] = "pil",
"""

seed = 50033
# Generate our own latents so that we can provide a seed.
latents = get_latents_from_seed(seed, 512, 512)
prompt = "A happy celebrating robot on a mountaintop, happy, landscape, dramatic lighting, art by artgerm greg rutkowski alphonse mucha, 4k uhd"
image = pipe(prompt, num_inference_steps=25, guidance_scale=13, latents=latents).images[0]
image.save("output.png")

制限

この時点ではいくつかの制限があります。

生成画像解像度の制約

512×512以上の解像度の画像を生成することが出来ません。これはOnnixの制約です。より高解像度の画像が必要な場合には、waifu2xなどの超解像AIを併用するなどの工夫が必要です。

NSFW(職場閲覧注意)による制約

真っ黒な画像を生成することが頻繁にあります。標準で組み込まれているNSFW(職場閲覧注意)フィルタにブロックされていることが原因です。以下の様に1行追加する事でNSFWを無効に出来るようですが、Stable Diffusionの利用規約上NSFWを無効にして生成した画像の公開は慎重に行いましょう。NSFWを無効にすると相当に高速になるという副次的効果もあるようです。

pipe = StableDiffusionOnnxPipeline.from_pretrained("./stable_diffusion_onnx", device_map="auto", provider="DmlExecutionProvider", max_memory=max_memory_mapping)
pipe.safety_checker = lambda images, **kwargs: (images, [False] * len(images))

その他、細かなHackは続編のStable Diffusion Updatesに・・・・