티스토리 뷰
SoftMax Function: 다양한 값들의 합이 1이 나오게 하여 분류시 데이터 파악을 쉽게하도록 돕는 함수. (1 = 100%)
- e = 자연상수(대략 2.718...)
- softmax = exp(logits) / reduce_sum(exp(logits), dim)
- Python 코드로 나타내면 아래와 같다.
One_hot: 값의 Index는 1 그리고 이외의 모든 값은 0으로 환산해주는 함수
softmax_cross_entropy_with_logits: cost함수를 만들어주는 함수 단, 해당 함수를 사용 후, 전체값의 평균을 내는 reduce_mean을 해줘야한다.
- Cross entropy: 비교하는 대상에 대한 현재 값
'AI > Tensorflow' 카테고리의 다른 글
Numpy 기본 (0) | 2017.06.08 |
---|---|
[텐서플로우 정리] 09. argmax 함수 (0) | 2017.05.27 |
Logistic Classification (참치냐 꽁치냐...) (0) | 2017.05.20 |
numpy.loadtxt를 이용한 주식 가격 예측 프로그램 (0) | 2017.05.20 |
TensorFlow LineRegression - 2 (0) | 2017.05.20 |
댓글
공지사항
최근에 올라온 글
링크
TAG
- 중앙정보처리학원
- javascript
- web
- Configuration
- python
- executor
- Maven
- TDD
- mybatis
- NIO
- Java
- spark
- 모두의딥러닝
- Gradle
- 텐서플로우
- 파이썬
- 머신러닝
- Error
- serverless
- spring
- mysql
- memory
- AI
- AWS
- API
- ML
- BigData
- Docker
- 점프투파이썬
- tensorflow
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
글 보관함