reference

差分

このページの2つのバージョン間の差分を表示します。

この比較画面へのリンク

両方とも前のリビジョン 前のリビジョン
次のリビジョン
前のリビジョン
reference [2021/12/30 01:53] satoshireference [2022/01/02 17:49] (現在) satoshi
行 1: 行 1:
 ====== 参考情報 ====== ====== 参考情報 ======
 +
 +===== React関連リンク =====
 +==== React公式ページ ====
 +公式の資料が一番よく整っており、Tutorialを一通り実行すればReactがどういうものかつかめてくる。\\
 +[[https://ja.reactjs.org/]]
 +
 +===== 画像処理リンク =====
 +AIの前に画像、映像を処理するための基本的知識を身につけられるサイトです\\
 +
 +[[https://cpp-learning.com/operate_pixel/?fbclid=IwAR0azQb_02kPZVZjrmdsyIujorI2ourrkR_xXBLW3CNBsBzsGXDIwMH1Mrk]]
 +
 +コンピュータビジョンのセカイ
 +
 +[[https://news.mynavi.jp/techplus/article/computer_vision-1/]]
 +
 +===== AI関連リンク =====
 +==== PINTO Model zoo ====
 +OpenVinoやTensorFlowなどで高速で推論実行できる量子化モデルが多数公開されています。\\
 +[[https://github.com/PINTO0309/PINTO_model_zoo]]\\
 +
 +ただし、AIモデルだけがおいてあり、そのモデルを使うためのサンプルコードが一部しかそろっていないため、ボランティアとして集めている状況で数が少ないです。\\
 +下記が利用可能と思われるモデル番号です//
 +(2021/01/01現在)//
 +<code>
 +./050_AnimeGANv2/demo/demo_AnimeGANv2_onnx.py
 +./061_U-2-Net/demo/demo_u2net_onnx.py
 +./061_U-2-Net/demo/demo_u2net_portrait_onnx.py
 +./072_NanoDet/demo/demo_onnx.py
 +./077_ESRGAN/demo/demo_ESRGAN_onnx.py
 +./108_HAWP/demo/demo_HAWP_onnx.py
 +./115_MoveNet/demo/demo_singlepose_onnx.py
 +./119_M-LSD/demo/demo_mlsd-lines_onnx.py
 +./119_M-LSD/demo/demo_mlsd-squares_onnx.py
 +./129_SCRFD/demo/demo_SCRFD_onnx.py
 +./133_Real-ESRGAN/demo/demo_Real-ESRGAN_onnx.py
 +./136_road-segmentation-adas-0001/demo/demo_road-segmentation-adas-0001_onnx.py
 +./137_MoveNet_MultiPose/demo/demo_multipose_onnx.py
 +./146_FastDepth/demo/demo_fast_depth_onnx.py
 +./151_object_detection_mobile_object_localizer/demo/demo_onnx.py
 +./158_HR-Depth/demo/demo_hr_depth_onnx.py
 +./171_Fast-SRGAN/demo/demo_fast_srgan_onnx.py
 +./172_Real-Time-Super-Resolution/demo/demo_Real-Time-Super-Resolution_onnx.py
 +./174_PP-PicoDet/demo/demo_picodet_onnx.py
 +./176_StableLLVE/demo/demo_StableLLVE_onnx.py
 +./178_vehicle-detection-0200/demo/demo_vehicle-detection-0200_onnx.py
 +./179_person-detection-0202/demo/demo_person-detection-0202_onnx.py
 +./196_human_segmentation_pphumanseg/demo/demo_pphumanseg_onnx.py
 +./199_NSFW/demo/demo_nsfw_onnx.py
 +./200_AGLLNet/demo/demo_AGLLNet_onnx.py
 +./201_CityscapesSOTA/demo/demo_CityscapesSOTA_onnx.py
 +./204_HINet/demo/demo_hinet_onnx.py
 +./205_MBLLEN/demo/demo_MBLLEN_onnx.py
 +./206_Matting/demo/demo_Matting_onnx.py
 +./207_GLADNet/demo/demo_GLADNet_onnx.py
 +./208_SAPNet/demo/demo_SAPNet_onnx.py
 +./209_MSBDN-DFF/demo/demo_MSBDN-DFF_onnx.py
 +./212_GFN/demo/demo_GFN_onnx.py
 +./213_TBEFN/demo/demo_TBEFN_onnx.py
 +./215_AOD-Net/demo/demo_AOD-Net_onnx.py
 +./216_Zero-DCE-TF/demo/demo_Zero-DCE-TF_onnx.py
 +</code>
 +
 +なお使い方は下記のリンクによくまとまっています。\\
 +
 +[[https://zenn.dev/karaage0703/articles/a4973dc094ee1c]]\\
 +
 +==== OpenVino Toolkit ====
 +Intel NUC版ではOpenVinoが使える。\\
 +公式ページ\\
 +[[https://www.intel.co.jp/content/www/jp/ja/internet-of-things/openvino-toolkit.html]]
 +
 +==== Mediapipe ====
 +[[https://google.github.io/mediapipe/]]\\
 +が公式ページ。\\
 +各モデルにはWebDEMOへのリンクがあり、CodePenという開発プラットフォームでブラウザだけで解析して結果を見ることができます。\\
 +
 +また、Pythonで利用可能なサンプルコードは\\
 +[[https://github.com/Kazuhito00/mediapipe-python-sample]]\\
 +で公開されています。\\
 +
 +ただし、Mediapipeは原則64bitでのOSにしか対応していません。\\
 +Raspberry pi 4で動かすためには64bitOS(Ubuntu/Raspberry pi OS)を利用することになりますが、SCORER Edgeでは32bit版のRaspberry pi OSを採用しているため、非公式パッケージを入れることで利用可能となります。\\
 +[[https://pypi.org/project/mediapipe-rpi4/]]\\
 +をインストールすればPythonで利用可能になります。\\
 +
  
  
  
  • reference.1640796818.txt.gz
  • 最終更新: 2021/12/30 01:53
  • by satoshi