吉祥寺北口システムが気になった記事をクリップしています。タイトルから元記事にリンクしています。タグは記事タイトルを形態素分析しています。たまにコメントをつけています。
Inference
How we used OpenBMC to support AI inference on GPUs around the world
ai
(5172)
around
(34)
GPUs
(12)
how
(301)
Inference
(32)
on
(1868)
OpenBMC
(2)
Support
(652)
the
(4365)
to
(3295)
Used
(59)
We
(156)
world
(293)
Announcing Llama 2 Inference APIs and Hosted Fine-Tuning through Models-as-a-Service in Azure AI – Microsoft Community Hub
ai
(5172)
and
(3289)
Announcing
(440)
Apis
(40)
As
(303)
Azure
(719)
Community
(368)
Fine
(11)
hosted
(13)
Hub
(203)
in
(2447)
Inference
(32)
Llama
(28)
Microsoft
(4459)
Models
(50)
Service
(812)
through
(95)
tuning
(5)
Workers AI: serverless GPU-powered inference on Cloudflare’s global network
ai
(5172)
CloudFlare
(573)
Global
(340)
GPU
(205)
Inference
(32)
Network
(399)
on
(1868)
powered
(243)
Serverless
(94)
workers
(135)
The best place on Region: Earth for inference
best
(78)
Earth
(90)
for
(5179)
Inference
(32)
on
(1868)
place
(55)
Region
(27)
the
(4365)
GitHub – facebookresearch/codellama: Inference code for CodeLlama models
Code
(400)
codellama
(1)
facebookresearch
(3)
for
(5179)
GitHub
(873)
Inference
(32)
Models
(50)
How Cloudflare runs machine learning inference in microseconds
CloudFlare
(573)
how
(301)
in
(2447)
Inference
(32)
Learning
(125)
Machine
(118)
microseconds
(1)
Runs
(12)
Announcing the Microsoft Machine Learning Membership Inference Competition (MICO) – Microsoft Security Response Center
Announcing
(440)
Center
(743)
Competition
(24)
Inference
(32)
Learning
(125)
Machine
(118)
Membership
(2)
MICO
(1)
Microsoft
(4459)
response
(312)
Security
(5710)
the
(4365)
Amazon SageMaker で NVIDIA Triton Inference Server を使用してモデルサーバのハイパースケールパフォーマンスを実現する | Amazon Web Services ブログ
Amazon
(8250)
Inference
(32)
NVIDIA
(238)
SageMaker
(362)
Server
(698)
Services
(6355)
Triton
(4)
Web
(9079)
サーバ
(783)
スケール
(107)
ハイパー
(87)
パフォーマンス
(321)
ブログ
(7700)
モデル
(1168)
使用
(2253)
実現
(3115)
Amazon SageMaker の NVIDIA Triton Inference Server を使用して高速でスケーラブルな AI をデプロイする | Amazon Web Services ブログ
ai
(5172)
Amazon
(8250)
Inference
(32)
NVIDIA
(238)
SageMaker
(362)
Server
(698)
Services
(6355)
Triton
(4)
Web
(9079)
デプロイ
(173)
ブログ
(7700)
使用
(2253)
高速
(763)
Amazon SageMaker Serverless Inference — サーバーレスで推論用の機械学習モデルをデプロイ可能に | Amazon Web Services ブログ
Amazon
(8250)
Inference
(32)
SageMaker
(362)
Serverless
(94)
Services
(6355)
Web
(9079)
サーバー
(1129)
デプロイ
(173)
ブログ
(7700)
モデル
(1168)
レス
(403)
可能
(4168)
学習
(804)
推論
(62)
機械
(459)
Amazon SageMaker Inference Recommender を発表 | Amazon Web Services ブログ
Amazon
(8250)
Inference
(32)
Recommender
(1)
SageMaker
(362)
Services
(6355)
Web
(9079)
ブログ
(7700)
発表
(8035)
[2110.06037] SoftNeuro: Fast Deep Inference using Multi-platform Optimization
2110.06037
(1)
Deep
(168)
Fast
(86)
Inference
(32)
MULTI-PLATFORM
(3)
optimization
(25)
SoftNeuro
(2)
using
(213)
Android Developers Blog: Announcing Android’s updateable, fully integrated ML inference stack
Android
(2148)
Android’s
(5)
Announcing
(440)
Blog
(6451)
Developers
(386)
FULLY
(28)
Inference
(32)
Integrated
(23)
ML
(96)
Stack
(107)
updateable
(1)
Listen to Your Key: Towards Acoustics-based Physical Key Inference
Acoustics-based
(1)
Inference
(32)
Key
(83)
Listen
(11)
physical
(12)
to
(3295)
Towards
(15)
Your
(539)
Amazon Elastic Inference で PyTorch モデル向け Amazon EC2 の推論コストを削減する | Amazon Web Services ブログ
Amazon
(8250)
EC
(1409)
Elastic
(142)
Inference
(32)
PyTorch
(24)
Services
(6355)
Web
(9079)
コスト
(594)
ブログ
(7700)
モデル
(1168)
削減
(645)
推論
(62)
Amazon SageMaker Neo と Amazon Elastic Inference を使用してパフォーマンスを向上させ、MXNet 推論のコストを削減する | Amazon Web Services ブログ
Amazon
(8250)
Elastic
(142)
Inference
(32)
MXNet
(37)
NEO
(63)
SageMaker
(362)
Services
(6355)
Web
(9079)
コスト
(594)
パフォーマンス
(321)
ブログ
(7700)
使用
(2253)
削減
(645)
向上
(1421)
推論
(62)
Amazon Elastic Inference を使用して Amazon SageMaker で PyTorch モデルの ML 推論コストを削減する | Amazon Web Services ブログ
Amazon
(8250)
Elastic
(142)
Inference
(32)
ML
(96)
PyTorch
(24)
SageMaker
(362)
Services
(6355)
Web
(9079)
コスト
(594)
ブログ
(7700)
モデル
(1168)
使用
(2253)
削減
(645)
推論
(62)
Kubernetes および Amazon Elastic Inference を使用した TensorFlow モデルの最適化 | Amazon Web Services ブログ
Amazon
(8250)
Elastic
(142)
Inference
(32)
Kubernetes
(331)
Services
(6355)
TensorFlow
(48)
Web
(9079)
ブログ
(7700)
モデル
(1168)
使用
(2253)
最適化
(488)
Apache MXNet、AWS Lambda、Amazon Elastic Inference を使って深層学習を提供している Curalate 社 | Amazon Web Services ブログ
Amazon
(8250)
apache
(513)
AWS
(3959)
Curalate
(2)
Elastic
(142)
Inference
(32)
Lambda
(205)
MXNet
(37)
Services
(6355)
Web
(9079)
ブログ
(7700)
学習
(804)
提供
(15153)
深層
(68)
Amazon ECS で Amazon Elastic Inference ワークロードを実行する | Amazon Web Services ブログ
Amazon
(8250)
ECS
(103)
Elastic
(142)
Inference
(32)
Services
(6355)
Web
(9079)
ブログ
(7700)
ロード
(231)
ワーク
(1186)
実行
(855)
Amazon TensorFlow を使用した Amazon Elastic Inference でのコストの最適化 | Amazon Web Services ブログ
Amazon
(8250)
Elastic
(142)
Inference
(32)
Services
(6355)
TensorFlow
(48)
Web
(9079)
コスト
(594)
ブログ
(7700)
使用
(2253)
最適化
(488)
MXNet と Amazon Elastic Inference を使った Java ベースの深層学習の実行 | Amazon Web Services ブログ
Amazon
(8250)
Elastic
(142)
Inference
(32)
Java
(501)
MXNet
(37)
Services
(6355)
Web
(9079)
ブログ
(7700)
ベース
(615)
学習
(804)
実行
(855)
深層
(68)
EC2 用の Amazon Elastic Inference 設定ツールを使用して、EI アクセラレータを数分で起動する | Amazon Web Services ブログ
Amazon
(8250)
EC
(1409)
EI
(3)
Elastic
(142)
Inference
(32)
Services
(6355)
Web
(9079)
アクセラレータ
(24)
ツール
(2729)
ブログ
(7700)
使用
(2253)
数分
(23)
設定
(851)
起動
(178)
MXNet と Amazon Elastic Inference を使用した、深層学習の推論コストの削減 | Amazon Web Services ブログ
Amazon
(8250)
Elastic
(142)
Inference
(32)
MXNet
(37)
Services
(6355)
Web
(9079)
コスト
(594)
ブログ
(7700)
使用
(2253)
削減
(645)
学習
(804)
推論
(62)
深層
(68)
Amazon Elastic Inference を使ったモデルサービング | Amazon Web Services ブログ
Amazon
(8250)
Elastic
(142)
Inference
(32)
Services
(6355)
Web
(9079)
サー
(81)
ビング
(2)
ブログ
(7700)
モデル
(1168)
Amazon Elastic Inference を使用して ONNX モデルを実行する | Amazon Web Services ブログ
Amazon
(8250)
Elastic
(142)
Inference
(32)
ONNX
(9)
Services
(6355)
Web
(9079)
ブログ
(7700)
モデル
(1168)
使用
(2253)
実行
(855)
EI 対応の TensorFlow 1.12 で利用できる柔軟性のある新型 Python API を使用して、Amazon Elastic Inference で TensorFlow モデルをデプロイする | Amazon Web Services ブログ
1.12
(2)
Amazon
(8250)
API
(1104)
EI
(3)
Elastic
(142)
Inference
(32)
Python
(163)
Services
(6355)
TensorFlow
(48)
Web
(9079)
デプロイ
(173)
ブログ
(7700)
モデル
(1168)
使用
(2253)
利用
(5066)
対応
(4882)
新型
(1383)
柔軟性
(20)
インテル、機械学習の推論に特化した新プロセッサ「Nervana Neural Network Processor for Inference」発表。Facebookが開発に協力 - Publickey
Facebook
(1703)
for
(5179)
Inference
(32)
Nervana
(2)
Network
(399)
neural
(23)
processor
(32)
Publickey
(2789)
インテル
(237)
プロセッサ
(155)
協力
(401)
学習
(804)
推論
(62)
機械
(459)
特化
(616)
発表
(8035)
開発
(6498)
Amazon Elastic Inference — GPUを利用した深層学習推論の高速化 | Amazon Web Services ブログ
Amazon
(8250)
Elastic
(142)
GPU
(205)
Inference
(32)
Services
(6355)
Web
(9079)
ブログ
(7700)
利用
(5066)
学習
(804)
推論
(62)
深層
(68)
高速
(763)
Apache MXNet を Amazon SageMaker および AWS Greengrass ML Inference と共に使用する脳組織のセグメント化 – パート 2 | Amazon Web Services ブログ
Amazon
(8250)
apache
(513)
AWS
(3959)
Greengrass
(35)
Inference
(32)
ML
(96)
MXNet
(37)
SageMaker
(362)
Services
(6355)
Web
(9079)
セグメント
(60)
パート
(99)
ブログ
(7700)
使用
(2253)
脳組織
(3)
Apache MXNet を Amazon SageMaker および AWS Greengrass ML Inference と共に使用する脳組織のセグメント化 – パート 1 | Amazon Web Services ブログ
Amazon
(8250)
apache
(513)
AWS
(3959)
Greengrass
(35)
Inference
(32)
ML
(96)
MXNet
(37)
SageMaker
(362)
Services
(6355)
Web
(9079)
セグメント
(60)
パート
(99)
ブログ
(7700)
使用
(2253)
脳組織
(3)
AWS Greengrass Machine Learning Inference – アマゾン ウェブ サービス
AWS
(3959)
Greengrass
(35)
Inference
(32)
Learning
(125)
Machine
(118)
アマゾン
(477)
ウェブ
(1046)
サービス
(18956)