En mi computadora portátil dell core i7 - 16GB RAM - 4gb 960m GPU, estoy trabajando en un proyecto para clasificar las imágenes de CT de pulmón usando CNN 3d. Estoy usando la versión de CPU de tensorflow. Las imágenes se preparan como tamaño de matriz numpy (25,50,50).
Mi modelo CNN tenía 2 capas conv, dos capas maxpool, una capa FC y una capa de salida. Con esta arquitectura, podría entrenar el modelo con aproximadamente (5000 a 6000) muestras. Después de agregar más capas, mi modelo ahora tiene 6 capas conv, 3 capas de grupo máximo, FC y capa de salida. Mi problema es que después de cambiar la arquitectura con solo más de 1000 muestras, mi memoria se llena y recibo un error de memoria. Traté de hacer lotes más pequeños, pero cada vez obtenía el mismo error. Tengo dos preguntas:
¿Por qué al agregar más capas el modelo necesita más memoria?
¿Hay alguna forma de lidiar con este tipo de problema?