Diferentes slim.conv2d y slim.convolution2d de tf.nn.conv2d

Different Slim Conv2d

Prefacio

  1. Slim es una construcción, entrenamiento y evaluación simplificados de la biblioteca de redes neuronales:
    Al eliminar el código repetitivo, el usuario puede definir un modelo más compacto. Esto se logra mediante el uso de parámetros y variables y muchos niveles superiores. Estas herramientas mejoran la legibilidad y la facilidad de mantenimiento, reducen la posibilidad de copiar y pegar los valores de los parámetros ultra que se produzcan errores y simplifican el ajuste de los parámetros ultra.
    al proporcionar una regularización común permite un modelo de fácil desarrollo.
    Los modelos complejos delgados se pueden ampliar fácilmente y para iniciar el algoritmo de entrenamiento utilizando el modelo térmico de puntos de control preexistentes.

  2. Primero slim.conv2d y slim.convolution2d es exactamente el mismo, código fuente de referencia:
    https://github.com/tensorflow/tensorflow/blob/master/tensorflow/contrib/layers/python/layers/layers.py



|_+_|

A continuación, discutimos los diferentes puntos de slim.conv2d y tf.nn.conv2d.



Comparado

Estas dos funciones se utilizan para la capa de estructura del paquete de funciones de convolución.
Aunque TensorFlow es un conjunto muy amplio de operaciones, la red neuronal del desarrollador generalmente considera un modelo de concepto de nivel superior según, por ejemplo, 'capa', 'pérdida', 'medida' y 'red. 'Como una capa de convolución, una capa completamente conectada o capas como la capa de BatchNorm TensorFlow más abstracta que una sola operación, y por lo general implican una pluralidad de operaciones. Además, las operaciones más primitivas, esta capa generalmente (pero no siempre) tiene una variable (sintonizable) asociada con ella. Por ejemplo, una capa de red neuronal convolucional baja por varias operaciones:



  • Creación de ponderaciones y variables de sesgo
  • Capa de entrada antes de usar para calcular los pesos
  • Sumando la desviación al resultado de la convolución.
  • Función de activación.

Tf.nn.conv2d usando convolución para crear una capa completa es el siguiente:

|_+_|

La creación y las variables operativas relacionadas son demasiado complejas

El uso slim.conv2d creado de la siguiente manera:



|_+_|

Uno en él.

referencia

1 : https://github.com/tensorflow/tensorflow/blob/master/tensorflow/contrib/layers/python/layers/layers.py
2 : La diferencia tf.nn.conv2d y tf.contrib.slim.conv2d