티스토리 뷰
SoftMax Function: 다양한 값들의 합이 1이 나오게 하여 분류시 데이터 파악을 쉽게하도록 돕는 함수. (1 = 100%)
- e = 자연상수(대략 2.718...)
- softmax = exp(logits) / reduce_sum(exp(logits), dim)
- Python 코드로 나타내면 아래와 같다.
One_hot: 값의 Index는 1 그리고 이외의 모든 값은 0으로 환산해주는 함수
softmax_cross_entropy_with_logits: cost함수를 만들어주는 함수 단, 해당 함수를 사용 후, 전체값의 평균을 내는 reduce_mean을 해줘야한다.
- Cross entropy: 비교하는 대상에 대한 현재 값
'AI > Tensorflow' 카테고리의 다른 글
Numpy 기본 (0) | 2017.06.08 |
---|---|
[텐서플로우 정리] 09. argmax 함수 (0) | 2017.05.27 |
Logistic Classification (참치냐 꽁치냐...) (0) | 2017.05.20 |
numpy.loadtxt를 이용한 주식 가격 예측 프로그램 (0) | 2017.05.20 |
TensorFlow LineRegression - 2 (0) | 2017.05.20 |
댓글
공지사항
최근에 올라온 글
링크
TAG
- 중앙정보처리학원
- mysql
- ML
- executor
- BigData
- javascript
- spark
- 점프투파이썬
- 머신러닝
- AWS
- NIO
- Gradle
- mybatis
- spring
- API
- tensorflow
- Java
- 모두의딥러닝
- 텐서플로우
- Configuration
- Error
- web
- memory
- serverless
- Docker
- AI
- TDD
- python
- 파이썬
- Maven
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
글 보관함