티스토리 뷰
SoftMax Function: 다양한 값들의 합이 1이 나오게 하여 분류시 데이터 파악을 쉽게하도록 돕는 함수. (1 = 100%)
- e = 자연상수(대략 2.718...)
- softmax = exp(logits) / reduce_sum(exp(logits), dim)
- Python 코드로 나타내면 아래와 같다.
One_hot: 값의 Index는 1 그리고 이외의 모든 값은 0으로 환산해주는 함수
softmax_cross_entropy_with_logits: cost함수를 만들어주는 함수 단, 해당 함수를 사용 후, 전체값의 평균을 내는 reduce_mean을 해줘야한다.
- Cross entropy: 비교하는 대상에 대한 현재 값
'AI > Tensorflow' 카테고리의 다른 글
Numpy 기본 (0) | 2017.06.08 |
---|---|
[텐서플로우 정리] 09. argmax 함수 (0) | 2017.05.27 |
Logistic Classification (참치냐 꽁치냐...) (0) | 2017.05.20 |
numpy.loadtxt를 이용한 주식 가격 예측 프로그램 (0) | 2017.05.20 |
TensorFlow LineRegression - 2 (0) | 2017.05.20 |
댓글
공지사항
최근에 올라온 글
링크
TAG
- mybatis
- python
- ML
- mysql
- Java
- serverless
- tensorflow
- memory
- BigData
- API
- executor
- 머신러닝
- 텐서플로우
- 점프투파이썬
- spring
- spark
- NIO
- Gradle
- Error
- Configuration
- web
- javascript
- 파이썬
- AI
- Maven
- 중앙정보처리학원
- TDD
- AWS
- 모두의딥러닝
- Docker
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
글 보관함