#5 - 메모리의 점진적인 누수
파티클의 갯수 4000개 epochs 100회 기준 최종적으로 150GB 의 메모리 사용량을 보인다
하지만 초기의 메모리는 26GB 로 점진적으로 메모리의 사용량이 증가하는것으로 볼 수 있다
This commit is contained in:
jung-geun
2023-09-04 14:07:22 +09:00
parent e5f364c3b2
commit 727ae8c604
5 changed files with 15661 additions and 19 deletions

View File

@@ -130,8 +130,6 @@ class Optimizer:
sys.exit("Ctrl + C : Stop Training")
except MemoryError:
sys.exit("Memory Error : Stop Training")
except Exception as e:
sys.exit(e)
def __del__(self):
del self.model
@@ -245,7 +243,7 @@ class Optimizer:
x : numpy array,
y : numpy array,
epochs : int,
log : int - 0 : log 기록 안함, 1 : log, 2 : tensorboard,
log : int - 0 : log 기록 안함, 1 : csv, 2 : tensorboard,
save_info : bool - 종료시 학습 정보 저장 여부 default : False,
save_path : str - ex) "./result",
renewal : str ex) "acc" or "loss" or "both",
@@ -258,7 +256,7 @@ class Optimizer:
self.dispersion = dispersion
self.renewal = renewal
particle_sum = 0 # x_j
particle_sum = 0 # x_j
try:
train_log_dir = "logs/fit/" + self.day
if log == 2:
@@ -277,10 +275,8 @@ class Optimizer:
self.save_path = save_path
if not os.path.exists(f"{save_path}/{self.day}"):
os.makedirs(f"{save_path}/{self.day}", exist_ok=True)
except ValueError as e:
sys.exit(e)
except Exception as e:
sys.exit(e)
except ValueError as ve:
sys.exit(ve)
for i in tqdm(range(self.n_particles), desc="Initializing velocity"):
p = self.particles[i]