티스토리 뷰


SoftMax Function: 다양한 값들의 합이 1이 나오게 하여 분류시 데이터 파악을 쉽게하도록 돕는 함수. (1 = 100%)

  • e = 자연상수(대략 2.718...)
  • softmax = exp(logits) / reduce_sum(exp(logits), dim)
    • Python 코드로 나타내면 아래와 같다.




One_hot: 값의 Index는 1 그리고 이외의 모든 값은 0으로 환산해주는 함수


softmax_cross_entropy_with_logits: cost함수를 만들어주는 함수 단, 해당 함수를 사용 후, 전체값의 평균을 내는 reduce_mean을 해줘야한다.



  • Cross entropy: 비교하는 대상에 대한 현재 값


댓글
공지사항
최근에 올라온 글
링크
«   2024/12   »
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31
글 보관함