The example used here has just one input and one output. But my test dataset has 810 imageswith 2 input images for each output/predicted image. Could you please suggest something on this matter? I have tried many things, but the model does not train well.
I will add some part of my code in later replies, just in case if someone faces the same issue in future.
I would consider having an encoder for each input image, and then combining the encoded representations in some way, typically with an additionLayer or a concatenationLayer.
If the input images are from distinct distributions, you may not want to use a shared encoder, and instead design an encoder network appropriate for each input image. Each encoder could be designed similar to the encoder from the VAE example, so the first can be an encoder that maps images to dimensional vectors , and similarly the second encoder maps images . The are hyperparameters you choose, and you can either concatenate and feed this into the decoder, or if you can add .
No se puede completar la acción debido a los cambios realizados en la página. Vuelva a cargar la página para ver el estado actualizado.
Translated by
Seleccione un país/idioma
Seleccione un país/idioma para obtener contenido traducido, si está disponible, y ver eventos y ofertas de productos y servicios locales. Según su ubicación geográfica, recomendamos que seleccione: .
También puede seleccionar uno de estos países/idiomas:
Cómo obtener el mejor rendimiento
Seleccione China (en idioma chino o inglés) para obtener el mejor rendimiento. Los sitios web de otros países no están optimizados para ser accedidos desde su ubicación geográfica.