<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="ko">
	<id>https://smwiki.info/index.php?action=history&amp;feed=atom&amp;title=%EB%94%A5%EB%9F%AC%EB%8B%9D%3A%EC%9D%B4%EC%A7%84%EB%B6%84%EB%A5%98</id>
	<title>딥러닝:이진분류 - 편집 역사</title>
	<link rel="self" type="application/atom+xml" href="https://smwiki.info/index.php?action=history&amp;feed=atom&amp;title=%EB%94%A5%EB%9F%AC%EB%8B%9D%3A%EC%9D%B4%EC%A7%84%EB%B6%84%EB%A5%98"/>
	<link rel="alternate" type="text/html" href="https://smwiki.info/index.php?title=%EB%94%A5%EB%9F%AC%EB%8B%9D:%EC%9D%B4%EC%A7%84%EB%B6%84%EB%A5%98&amp;action=history"/>
	<updated>2026-05-12T09:04:49Z</updated>
	<subtitle>이 문서의 편집 역사</subtitle>
	<generator>MediaWiki 1.45.1</generator>
	<entry>
		<id>https://smwiki.info/index.php?title=%EB%94%A5%EB%9F%AC%EB%8B%9D:%EC%9D%B4%EC%A7%84%EB%B6%84%EB%A5%98&amp;diff=1734&amp;oldid=prev</id>
		<title>Sam: Sam님이 딥러닝이론:이진분류 문서를 딥러닝:이진분류 문서로 이동했습니다</title>
		<link rel="alternate" type="text/html" href="https://smwiki.info/index.php?title=%EB%94%A5%EB%9F%AC%EB%8B%9D:%EC%9D%B4%EC%A7%84%EB%B6%84%EB%A5%98&amp;diff=1734&amp;oldid=prev"/>
		<updated>2020-10-21T00:48:35Z</updated>

		<summary type="html">&lt;p&gt;Sam님이 &lt;a href=&quot;/%EB%94%A5%EB%9F%AC%EB%8B%9D%EC%9D%B4%EB%A1%A0:%EC%9D%B4%EC%A7%84%EB%B6%84%EB%A5%98&quot; class=&quot;mw-redirect&quot; title=&quot;딥러닝이론:이진분류&quot;&gt;딥러닝이론:이진분류&lt;/a&gt; 문서를 &lt;a href=&quot;/%EB%94%A5%EB%9F%AC%EB%8B%9D:%EC%9D%B4%EC%A7%84%EB%B6%84%EB%A5%98&quot; title=&quot;딥러닝:이진분류&quot;&gt;딥러닝:이진분류&lt;/a&gt; 문서로 이동했습니다&lt;/p&gt;
&lt;table style=&quot;background-color: #fff; color: #202122;&quot; data-mw=&quot;interface&quot;&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;tr class=&quot;diff-title&quot; lang=&quot;ko&quot;&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;← 이전 판&lt;/td&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;2020년 10월 21일 (수) 00:48 판&lt;/td&gt;
				&lt;/tr&gt;&lt;tr&gt;&lt;td colspan=&quot;4&quot; class=&quot;diff-notice&quot; lang=&quot;ko&quot;&gt;&lt;div class=&quot;mw-diff-empty&quot;&gt;(차이 없음)&lt;/div&gt;
&lt;/td&gt;&lt;/tr&gt;
&lt;!-- diff cache key my_wiki:diff:1.41:old-1636:rev-1734 --&gt;
&lt;/table&gt;</summary>
		<author><name>Sam</name></author>
	</entry>
	<entry>
		<id>https://smwiki.info/index.php?title=%EB%94%A5%EB%9F%AC%EB%8B%9D:%EC%9D%B4%EC%A7%84%EB%B6%84%EB%A5%98&amp;diff=1636&amp;oldid=prev</id>
		<title>Sam: 새 문서: {{딥러닝이론}}  == 개요 == 맞느냐 아니냐 2가지의 분류.  === &#039;&#039;&#039;역사&#039;&#039;&#039; === &#039;&#039;&#039;퍼셉트론&gt;아달린&gt;로지스틱회귀&#039;&#039;&#039;&lt;ref&gt;Do it! 정직하게 코딩하며 배...</title>
		<link rel="alternate" type="text/html" href="https://smwiki.info/index.php?title=%EB%94%A5%EB%9F%AC%EB%8B%9D:%EC%9D%B4%EC%A7%84%EB%B6%84%EB%A5%98&amp;diff=1636&amp;oldid=prev"/>
		<updated>2020-10-16T00:52:41Z</updated>

		<summary type="html">&lt;p&gt;새 문서: {{딥러닝이론}}  == 개요 == 맞느냐 아니냐 2가지의 분류.  === &amp;#039;&amp;#039;&amp;#039;역사&amp;#039;&amp;#039;&amp;#039; === &amp;#039;&amp;#039;&amp;#039;퍼셉트론&amp;gt;아달린&amp;gt;로지스틱회귀&amp;#039;&amp;#039;&amp;#039;&amp;lt;ref&amp;gt;Do it! 정직하게 코딩하며 배...&lt;/p&gt;
&lt;p&gt;&lt;b&gt;새 문서&lt;/b&gt;&lt;/p&gt;&lt;div&gt;{{딥러닝이론}}&lt;br /&gt;
&lt;br /&gt;
== 개요 ==&lt;br /&gt;
맞느냐 아니냐 2가지의 분류.&lt;br /&gt;
&lt;br /&gt;
=== &amp;#039;&amp;#039;&amp;#039;역사&amp;#039;&amp;#039;&amp;#039; ===&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;퍼셉트론&amp;gt;아달린&amp;gt;로지스틱회귀&amp;#039;&amp;#039;&amp;#039;&amp;lt;ref&amp;gt;Do it! 정직하게 코딩하며 배우는 딥러닝 입문. 77p&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
여러 유닛 사용하기. 위에서 본 것은 1차방정식에 대한 가중치만 보았지만... 입력값이 여러개일 때가 있다.&lt;br /&gt;
&lt;br /&gt;
그런 경우엔 y=w_1*x_1 + w_2*x_2 + ...+b 형태로 다양한 입력값을 받아 예상하는 함수를 만들 수 있다. 그리고 뉴런은 이러한 입력값들을 받아 신호를 보내거나, 그렇지 않거나.. 두 가지로만 반응한다. 이렇게 여러 가지 입력을 받는 것은 성공. 그러나, 함수의 형태가 1차방정식(선형)의 형태다. x^2, x^n 형태로 반응할 때에 대해선 대응할 수가 없다. 그래서 이 방정식에 더해 활성화 함수라는 것을 사용한다. 선형방정식만 표현되는 한계를 극복하기 위해 활성화함수는 비선형 방정식을 사용하고, 모든 x^n 형태에 대해 포함하기 위해서 e^x 꼴의 함수를 사용한다. 일반적으로 로지스틱 회귀에선 [1/(1+e^-z)] 형태의 시그모이드 함수를 사용한다.&lt;br /&gt;
&lt;br /&gt;
게다가, 0과 1만 판단하는 함수에서 얼마나 잘 예측하여 정답을 얻은 것인지 판단할 재료가 필요하다. 예측을 얼마나 가깝게 했는지에 따라 학습의 정도를 달리해야 하기 때문에. 또한, 시그모이드함수를 사용하면 0~1 사이의 값을 얻어 예측확률이라 해석할 수도 있다.&lt;br /&gt;
&lt;br /&gt;
== 시그모이드 함수 ==&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;시그모이드함수가 만들어지기까지..&amp;#039;&amp;#039;&amp;#039;&lt;br /&gt;
&lt;br /&gt;
=== 오즈비 ===&lt;br /&gt;
성공과 실패의 비율을 나타낸 것. 성공확률/(1-성공확률) 의 식이다. &lt;br /&gt;
&lt;br /&gt;
=== 로짓함수 ===&lt;br /&gt;
오즈비는 성공확률이 0.9가 되면 급격하게 커진다. 때문에 여기에 자연로그를 취해보는데, 이를 로짓함수라 한다. 성공확률이 0.5일 때 0이 되고, 0, 1일 땐 각각 무한대로 커진다.&lt;br /&gt;
&lt;br /&gt;
=== 로지스틱 함수 ===&lt;br /&gt;
로짓함수=z 라 하고, 이를 성공확률에 대해서 정리하면 성공확률은=1/(1+e^-z) 의 관계가 얻어진다. 따라서 이를 성공확률로 해석한다. 그리고 이 모양이 s자 형태가 되는데, 이 모양으로부터 시그모이드 함수라고도 부르게 되었다.&lt;br /&gt;
&lt;br /&gt;
학습은 로지스틱함수의 결과값으로 이루어진다.&lt;br /&gt;
&lt;br /&gt;
이진분류가 목표였기 때문에 -무한~+무한 사이의 값을 통제할 방법이 필요했고, 로지스틱 함수가 조건에 잘 들어맞았다. 그리고 이 값이 0.5보다 크면 1, 작다면 0으로 처리해 이진분류를 할 수 있게 되었다.&lt;br /&gt;
&lt;br /&gt;
이제 손실함수에 대해 정의해야 한다. 다중분류를 위한 크로스엔트로피 손실함수를 이진분류버전으로 개량하여 사용하고 있다. 이 함수를 변형하여 실제 정답에 따라 학습시킨다. 정답이 1인 경우 -ln(활성화함수의 출력값), 정답이 0인 경우, -ln(1-활성화함수의 출력값)&lt;br /&gt;
&lt;br /&gt;
손실함수의 미분은 87에 안내. 가중치와 절편 업데이트는 91페이지에.&lt;/div&gt;</summary>
		<author><name>Sam</name></author>
	</entry>
</feed>