티스토리 뷰
SoftMax Function: 다양한 값들의 합이 1이 나오게 하여 분류시 데이터 파악을 쉽게하도록 돕는 함수. (1 = 100%)
- e = 자연상수(대략 2.718...)
- softmax = exp(logits) / reduce_sum(exp(logits), dim)
- Python 코드로 나타내면 아래와 같다.
One_hot: 값의 Index는 1 그리고 이외의 모든 값은 0으로 환산해주는 함수
softmax_cross_entropy_with_logits: cost함수를 만들어주는 함수 단, 해당 함수를 사용 후, 전체값의 평균을 내는 reduce_mean을 해줘야한다.
- Cross entropy: 비교하는 대상에 대한 현재 값
'AI > Tensorflow' 카테고리의 다른 글
Numpy 기본 (0) | 2017.06.08 |
---|---|
[텐서플로우 정리] 09. argmax 함수 (0) | 2017.05.27 |
Logistic Classification (참치냐 꽁치냐...) (0) | 2017.05.20 |
numpy.loadtxt를 이용한 주식 가격 예측 프로그램 (0) | 2017.05.20 |
TensorFlow LineRegression - 2 (0) | 2017.05.20 |
댓글
공지사항
최근에 올라온 글
링크
TAG
- javascript
- serverless
- BigData
- spring
- ML
- python
- memory
- mybatis
- spark
- Configuration
- NIO
- Maven
- 머신러닝
- Java
- Error
- API
- executor
- Docker
- 모두의딥러닝
- 텐서플로우
- 중앙정보처리학원
- mysql
- AWS
- TDD
- AI
- 파이썬
- 점프투파이썬
- web
- Gradle
- tensorflow
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
글 보관함