[Tip] Package dependencies 체크
Project.toml 이 없는 경우 역으로 toml 파일을 만드는 데 유용하다 결과 소스 (Jupyter HTML) ==> Here
[Tip] Package dependencies 체크 더 읽기"
Project.toml 이 없는 경우 역으로 toml 파일을 만드는 데 유용하다 결과 소스 (Jupyter HTML) ==> Here
[Tip] Package dependencies 체크 더 읽기"
JuMP constraint에 Inf, -Inf가 포함된 경우 이를 제거하는 방법을 아래 소개 한다. lower에 -Inf나 upper에 Inf가 있는 경우 예를 들어@constaint(m, x <= Inf) 를 하게 되면==> x + NaN <= Inf라는 식으로 constraint에 NaN이 포함되어 optimize시 error가 발생한다upper나 lower에 Inf, -Inf가 포함되는 경우 의미가 없기 때문에 에러를 발생 시키는게 아닐까 한다.따라서 사전에 그런 조건에 있는
[JuMP] Inf, -Inf constraint 제거하기 더 읽기"
변경 사항은 이전 MNIST updated와 동일한 내용임accuracy를 CPU에서 GPU에서 계산함 cifar10_gpu_minibatch2.jl
loss NaN 방지 및 onecold 대체 함수 사용 -> 이전 MNIST update 참조 conv_gpu_minibatch2.jl
[Flux] MNIST conv example updated! 더 읽기"
수정부문: 기존accuracy(x,y) = mean(onecold(m(x) .== onecold(y))loss(x,y) = crossentropy(m(x),y) 변경# ϵ : loss함수가 NaN이 되는것을 방지ϵ = 1.0f-32loss(x,y) = crossentropy(m(x) .+ ϵ,y) # onecold가 GPU에서는 에러 발생 하기 때무에 아래로 대체참조 : https://github.com/FluxML/Flux.jl/issues/556 compare(y::OneHotMatrix, y′) = maximum(y′, dims = 1) .== maximum(y .* y′, dims = 1)accuracy(x, y::OneHotMatrix) = mean(compare(y, m(x))) mnist.jl
[Flux] MNIST example update 더 읽기"