Método model.doInference
Ejecuta inferencias en un fotograma de vídeo (archivo de imagen) aplicando el modelo cargado. El método
devuelve el resultado de la inferencia.
Sintaxis de la solicitud
import awscam
model = awscam.Model(model_topology_file, loading_config)
raw_inference_results = model.doInference(video_frame)
Parameters
• video_frame: obligatorio. Un fotograma de vídeo de las fuentes de vídeo de AWS DeepLens.
Tipo de retorno
• dict— El resultado de la inferencia, como un diccionario de capas de salida basado en el modelo
cargado.
Returns
Devuelve un objeto dict con entradas de pares clave-valor. La clave de una entrada es el identificador
de una capa de salida del modelo. Para el resultado de la inferencia que se ejecuta en el tiempo de
ejecución Intel DLDT predeterminado, el identificador de la capa de salida es el nombre de esta tal como
se especifica en el modelo. Por ejemplo, con MXNet, los nombres de las capas de salida se definen en
el archivo .json del modelo. Para el resultado de la inferencia que se ejecuta en el tiempo de ejecución
de Neo, el identificador de la capa de salida es el número ordinal de la capa de salida tal como se define
en el modelo. El valor de una entrada es un objeto list que contiene las probabilidades de la salida
video_frame sobre las imágenes etiquetadas usadas para entrenar el modelo.
Example
Resultados de ejemplo:
Al ejecutar la inferencia en el tiempo de ejecución Intel DLDT en un modelo con una capa de salida
llamada SoftMax_67 de seis etiquetas, el resultado de la inferencia tiene el siguiente formato.
{
'SoftMax_67': array(
[
2.41881448e-08,
3.57339691e-09,
1.00263861e-07,
5.40415579e-09,
4.37702547e-04,
6.16787545e-08
],
dtype=float32)
}
Si el tiempo de ejecución de Neo (runtime=1) se usa para ejecutar la inferencia, el resultado de la
inferencia sin formato es un objeto dict, donde results[i] contiene la capa de salida i
ejemplo, para una red de clasificación de imágenes como ResNet-50 con solo una capa de salida
Softmax,results[0]es unNumpymatriz de tamañoN x 1que da la probabilidad de cada uno de losNtipos
de imagen etiquetados.
AWS DeepLens Guía para desarrolladores
Objeto de modelo
144
th
. Por