디시인사이드 갤러리

갤러리 이슈박스, 최근방문 갤러리

갤러리 본문 영역

잉여잉여 퍼셉트론 - 4

DMW(119.204) 2009.07.05 20:46:31
조회 4262 추천 1 댓글 5




이번엔 잘 올라가려나.........


-----------------------------------------------------------------------------------------------------------------------------
 이번에는 퍼셉트론 학습 방법에 대해서 알아보고 그걸 더러운 C++로 구현해 볼껀데...그전에 신경망의 의한 패턴 분류가 어떻게 일루어 지는지를 살펴보자능. 이제 끝임 하악하악


페턴 분류

 일단 페턴이란거 뭐냐믄.....어떤 오브젝트를 정량적으로 표현한거라구 한다능. 외우고 있긴 하지만 이게 뭔소린진 나도 가슴으로 느껴지진 않네 -_-;;; 아무튼 페턴은 크가 공간 페턴 spatial pattern 이랑 시변 페턴 temporal pattern 으로 구분된다능. 공간 페턴은 쉽게 말하면 그림, 그러니까 이미지이고 시변 페턴은 음성 신호, 심전도 파형같은 것들이라능.

 페턴 분류 시스템은 아래 그림과 같은 걸로 구성되 있다능. 일단 그림을 보고 하나씩 살펴보자능.


 입력은 그냥 입력이구....트랜스튜서 transducer라는건 실 세계의 데이터를 입력받아서 뉴로 컴퓨터, 그러니까 신경망이 처리하기 용이한 형태로 변환하는 기능을 한다능. 디지털데이터를 다루는 신경망이면 디지털로 바꾸고 아날로그 데이터를 다루는 신경망이면 아날로그로 바꾸는거라능. 트랜스튜서의 출력을 페턴 백터 pattern vector 라구 한다능.

  요 페턴 백터를 가지구 바로 분류기 classifier 에 입력해도 상관은 업ㅂ지만 특징 추출기feature extractor 를 한번 거쳐서 분류할 페턴들 간의 특징이 잘 드러나도록 하면 분류기의 성능을 더 높일 수있따능. 이제 특징 추출기에서 뽑아낸 특징 백터를 분류기로 분류하면 되는거라능. 단층 신경망을 사용한 패턴 분류기는 대충이런식이라능


 입력층 뉴런은 n개고 그걸 m개의 클러스터로 분류하는 분류기의 그림이라능. 그래서 출력층 뉴런이 m개임. 아무튼 이 뉴런들의 출력값중에 가장 큰값을 선택해서 입력된 특징 백터 x가 어떤 클러스터에 속하는지를 판별해 내는거라능

신경망의 패턴 분류

 이제 신경망이 페턴을 어떻게 분류해 내는지를 또 보자. 이거까지만 알아보구 퍼셉트론 만들어 볼꺼라능. n차원의 패턴 공간에서 요렇게 생긴 패턴 하나는 하나의 점으로 표시 할 수 있다능.

x = [ x1 x2 x3 ... xn ]

비슷한 페턴들은 패턴 공간에서 끼리끼리 뭉쳐있을꺼라능. 그러니까 대충 이런 그림이 나올꺼라능.


 저 빨간선을 기준으로 페턴을 두 그룹 j랑 k로 으로 나눌 수 있다능. 저 빨간선을 판단면 decision surface 라고 한다능. 그그에서는 패턴 공간이 2차원이라 선으로 표현된거구 페턴이 n차원이라면 n차원 초평면 hyperplane 이 될꺼심. 그리구 이 판단면을 정의하는 함수를 판별 함수 discriminant function 라구 한다능.

 d(x)를 판별 함수라고 치구 dk(x)랑 dj(x) 를  각 그룹에 속한 패턴 x의 판별 함수 값이라고 하자. 그러면 어떤 패턴 x가 다음 조건을 만족하면 k 그룹에 속해 있다고 할 수 있다능.

dk(x) > dj(x)         j ≠ k,  j = 1, 2, 3, ...... R

 R 은 클러스터의 갯수라능. 만약 패턴들을 두개의 클러스터로 분류하는 경우일 때

d1(x) = d2(x)          or         d1(x) - d2(x) = 0

 이 된다면 클러스터 1, 2의 경계면이기 때문에 어떤 클러스터에 속한다고 말할 수 업ㅂ게된다. 바루 위에 있는 식을판변면이라구 한다능. 그러면 T가 0인 양극성 계단 함수를 쓰는 신경망으로 패턴을 두개로 분류한다고 해보자. 입력 패턴이클러스터 1에 속해면 +1, 클러스터 2에 속하면 -1 이라구 가르치면 될꺼라능.

입력 가중합은 NET는 이렇게 되고

NET = x · w
       = x1*w1 + x2*w2 + x3*w3 ..... xn*wn + b

NET > T인 영역이랑 NET < T인 영역의 경계면은 요렇게 된다능

x1*w1 + x2*w2 + x3*w3 ..... xn*wn + b = 0

어떠냐능. 평면의 방정식 아니냐능. 요게바루 판단면....그러니까 저 빨간선이 되는거심. 그럼 이제 손으로 신경망을 한번 만들어 보자능.


 2차원 패턴 공간에 패턴 4개가 있고 두개로 분류도 있다능. 빨간선은 대충 그어 봤다능.

 입력 페턴
 [ x1 x2 ]
 클러스터
A [ 0    0 ] 0
B [ 1    0 ]  0
C [ 0    1 ] 0
D [ 1    1 ] 1

 보면 알겠지만 AND의 진리표임 >_<. 대충 끄셔놓은 빨간선이 새로축 x2 하고 만나는 값을 1.5라고 하고 가로축 x1하고 만나는 값을 1.5 라고하고 기울기를 -1 이라고 치면.....

x2 = -x1 + 1.5
x1 + x2 - 1.5 = 0


이걸 가지고 신경망을 설계해보면....


요렇게 나온다. 그럼 다음 패턴을 또 해보자. 이번꺼는 XOR의 패턴이라능.


죽어따 깨나도 직선 하나로는 세모랑 네모를 구별할 수 업ㅂ다. 이렇게 직선 하나로 분리가 불가능한 경우를 선형 분리 불가능 linear non-separable 라고 한다. 반면 AND와 같은 경우 처럼 분리가 가능한 경우를 선형 분리 가능 linear separable 이라고 한다능.

 벌써 눈치깠겠지만....단층 신경망은 선형 분리 불가능한 페턴을 분류해 낼 수가 업ㅂ다능. 이 경우에는 신경망을 다층으로만들어서 은닉층에서 원래의 페턴 공간을 선형 분리 가능한 공간으로 맵핑 시킨후에 분리를 해내야 된다능. 이 정도로만 하구 다층신경망 얘기는 나중에 기회가 되면 또 하자능.


퍼셉트론 Preceptron 학습법

 누가 퍼셉트론을 처음 제안 했는지 같은 구질 구질한 역사 얘기는 건너 뛰고.....원래 퍼셉트론은 수용층, 연합층, 반응층3계층으로 구성된 신경망인데 수용층은 별루 하는일이 업ㅂ어서 수용층이랑 연합층을 하나루 합칠수가 있다능. 그래서 생긴건 이렇게생겼다능.


 전에 봤던 그림이라능. 데헷 >_<. 아무튼 퍼셉트론 학습법에는 이진 활성화 함수랑 연속 활성화 함수 둘다를 쓸 수있다능. 초기 연결 강도는 임의의 작은 값으로 설정하면 되구 학습 신호 γ 는 아래 처럼 구할 수 있다능.


 간단하네. 신선함! 목표치 d랑 실제 출력 y의 오차를 학습 신호로 쓸 고 있음. 아무튼 k 단계의 연결 강도 변화량은 아래 처럼 구할 수 있다능.

k+1 단계의 연결 강도는 아래처럼 구하면 된다능.

다 끝났음. 이제 구현하면 된다능 >_<. 구체적인 프로세스는 http://www.filepang.co.kr/entry/퍼셉트론-학습-알고리즘 여기 나와 있으니까 꼭 보라능.

구현

 먼저 NeuralNetwork 라는 이름의 namespace를 하나 열구 클래스를 만들자능. 그리구나서 생성자에서 연결강도를 초기화 하면 되겠심.

namespace NeuralNetwork {
    template<int N, int M>
    class Perceptron{
    public:
        Perceptron(double (*activation_function)(double), double a = 0.1) {
            this->a = a;
            this->activation_function = activation_function;

            for (int i = 0; i < M; i++){
                weights[i].resize(N + 1);
                std::generate_n(weights[i].begin(), N + 1, RandomGenerator(-0.1, 0.1));
            }
        }
    private:
        std::vector<double> weights[M];
        double (*activation_function)(double);
        double a;
    };
}

 N은 입력의 갯수고 M은 뉴런의 갯수라능. a는 학습률 α고 activation_function은 활성함수로 사용할 함수의 함수 포인터라능. 생성자에서 각 뉴런들의 연결강도를 바이어스의 연결강도까지 포함한 N+1개의 랜덤값으로 초기화 해줬다능. RandomGenerator 는 요렇게 생겼심.

namespace NeuralNetwork {
    struct RandomGenerator {
        RandomGenerator(double _min = 0.0, double _max = 0.1) : min(_min), max(_max) {}
        double operator()(void) {
            double random = std::rand() / RAND_MAX;
            return random * (max - min) - min;
        }
        double min, max;
    };
}

T가 0인 양극성 계단 함수도 만들자능.

namespace NeuralNetwork {
    double bipolar_step_function(double x){
        if (x >= 0.0)
            return 1.0;
        return -1.0;
    }
}

이제 신경망의 출력을 구하는 함수를 만들어 보자능.

namespace NeuralNetwork {
    template<int N, int M>
    class Perceptron{
    public:
        template<typename T>
        void recall(T input_begin, T input_end) {
            for (int i = 0; i < M; i++) {
                output_pattern[i] = std::inner_product(weights[i].begin(), weights[i].begin()+N, input_begin, 0.0);
                output_pattern[i] += weights[i][N] * 1.0;

                output_pattern[i] = activation_function(output_pattern[i]);
            }
        }
    public:
        double output_pattern[M];
    };
}

패턴 x를 받아서 가중합을 구하는데...입력에는 바이어스를 포함하지 않아도 되도록 했다능.

output_pattern[i] = std::inner_product(weights[i].begin(), weights[i].begin()+N, input_begin, 0.0);

바어어스를 제외한 가중합을 구하고...

output_pattern[i] += weights[i][N] * 1.0;
output_pattern[i] = activation_function(output_pattern[i]);

바이어스까지 포함시킨후에 출력값을 구했다능. 출력 output_pattern은 getter를 만들기 귀차느니까 public 으로 했다능. 이제 퍼셉트론 학습 방법을 사용해서 학습 시킬는 함수를 만들면 된다능.

namespace NeuralNetwork {
    template<int N, int M>
    class Perceptron{
    public:
        template<typename T>
        double learn(T input_begin, T input_end, T desired_being, T desired_end) {
            recall(input_begin, input_end);                                           
            double error = hamming_distance(output_pattern, output_pattern + M,
                                            desired_being, desired_end);           

            for (int i = 0; i < M; i++) {            
                int j;
                double r = *(desired_being+i) - output_pattern[i];   

                for (j = 0; j < N; j++)
                    weights[i][j] += a * r * *(input_begin+j);       
                weights[i][j] += a * r * 1;                        
            }

            return error;
        }
    };
}

 파라미터로 패턴 x랑 기대하는 값 d를 입력 받았다능. 그리고나서 위에 링크에 있는데로 패턴 x를 입력으로 하는 출력을 구해내고 구해진 출력을 가지고 학습신호 γ를 구했심. γ랑 r이랑 비슷하게 생겼길래 학습 신호의 변수 이름은 r로 했다능.

recall(input_begin, input_end);

 출력을 구해나는 코드고 외부에서 학습이 얼마나 진행됐는지 알 수 있도록 현재의 출력과 기대값과의 오차를 계산해서 리턴하도록 해줬다능. 오차는 해밍 거리를 사용해서 구해냈다능.

double error = hamming_distance(output_pattern, output_pattern + M, desired_being, desired_end);

안에 있는  for문이 실제 학습을 진행 시키는 부분이라능. 출력층의 모든 뉴런들에서 학습 신호를 구해내고 바이어스를 포함한 모든 연결 강도를 변경한다능.

double r = *(desired_being+i) - output_pattern[i];

for (j = 0; j < N; j++)
    weights[i][j] += a * r * *(input_begin+j);
weights[i][j] += a * r * 1;

 마찬 가지로 learn 함수를 사용할때도 입력 패턴에 바이어스를 포함시키지 않도록 했기 때문에....바이어스 연결 강도는 내부 for 문에서 빼내서 따로 구했다능. 저렇게 밖에 못하겠더라능 -_-;;

전체 소스코드랑 OR 게이트의 학습 결과라능.

#include <iostream>
#include <vector>
#include <algorithm>
#include <numeric>
#include <ctime>
#include <cmath>

namespace NeuralNetwork {
    struct RandomGenerator {
        RandomGenerator(double _min = 0.0, double _max = 0.1) : min(_min), max(_max) {}
        double operator()(void) {
            double random = std::rand() / RAND_MAX;
            return random * (max - min) - min;
        }
        double min, max;
    };

    template<typename T>
    double hamming_distance(T input_begin, T input_end, T desired_begin, T desired_end) {
        double distance = 0.0;

        for (; input_begin != input_end && desired_begin != desired_end; ++input_begin, ++desired_begin)
            distance += std::pow(*desired_begin - *input_begin, 2);

        return std::sqrt(distance);
    }

    double bipolar_step_function(double x){
        if (x >= 0.0)
            return 1.0;
        return -1.0;
    }

    double bipolar_sigmoid_function(double x){
        return (1.0 - std::exp(-x)) / (1.0 + std::exp(-x));
    }

    template<int N, int M>
    class Perceptron{
    public:
        Perceptron(double (*activation_function)(double), double a = 0.1) {
            this->a = a;                                            // learning rate
            this->activation_function = activation_function;        // activation functoin

            // initialize weights include bias
            for (int i = 0; i < M; i++){
                weights[i].resize(N + 1);
                std::generate_n(weights[i].begin(), N + 1, RandomGenerator(-0.1, 0.1));
            }

            std::fill(output_pattern, output_pattern + M, 0.0);     // initialize output
        }
        ~Perceptron() {}

        template<typename T>
        void recall(T input_begin, T input_end) {
            for (int i = 0; i < M; i++) {
                output_pattern[i] = std::inner_product(weights[i].begin(), weights[i].begin()+N, input_begin, 0.0);
                output_pattern[i] += weights[i][N] * 1.0;

                output_pattern[i] = activation_function(output_pattern[i]); // compute output
            }
        }

        template<typename T>
        double learn(T input_begin, T input_end, T desired_being, T desired_end) {
            recall(input_begin, input_end);                                            // compute output
            double error = hamming_distance(output_pattern, output_pattern + M,
                                            desired_being, desired_end);            // compute error

            for (int i = 0; i < M; i++) {             // for all neurons in output layer
                int j;
                double r = *(desired_being+i) - output_pattern[i];    // compute learning signal

                for (j = 0; j < N; j++)
                    weights[i][j] += a * r * *(input_begin+j);        // compute delta_w and update weight
                weights[i][j] += a * r * 1;                         // update weight of bias
            }

            return error;
        }

    private:
        std::vector<double> weights[M];
        double (*activation_function)(double);
        double a;

    public:
        double output_pattern[M];
    };
}

int main(void)
{
    using namespace std;
    using namespace NeuralNetwork;

    srand(time(NULL));

    const int n = 2;
    const int m = 1;

    Perceptron<n, m> net(bipolar_step_function, 0.3);

    double input_pattern[4][n] = { {-1.0, -1.0}, {-1.0, 1.0}, {1.0, -1.0}, {1.0, 1.0} };
    double desired_pattern[4][m] = { {-1.0}, {1.0}, {1.0}, {1.0} };

    cout.precision(5);
    cout << showpoint << showpos;
    cout << "before learning...." << endl;

    for (int i = 0; i < 4; i++) {
        net.recall(input_pattern[i], input_pattern[i]+n);

        cout << "    [ ";
        copy(input_pattern[i], input_pattern[i]+n, ostream_iterator<double>(cout, " "));
        cout << "] : ";

        copy(net.output_pattern, net.output_pattern+m, ostream_iterator<double>(cout, " "));
        cout << endl;
    }

    cout << "\\ntraining...." << endl;

    cout << noshowpos;
    for (int i = 0; i < 200; i++) {
        double error = 0.0;

        for (int j = 0; j < 4; j++)
            error += net.learn(input_pattern[j], input_pattern[j]+n,
                                desired_pattern[j], desired_pattern[j]+m);

        cout << "    #"  << i << " : error : " << error << endl;

        if (error == 0.0) {
            cout << "    Traning complete" << endl;
            break;
        }
    }

    cout << "\\nafter learning...." << endl;
    cout << showpos;

    for (int i = 0; i < 4; i++) {
        net.recall(input_pattern[i], input_pattern[i] + n);

        cout << "    [ ";
        copy(input_pattern[i], input_pattern[i]+n, ostream_iterator<double>(cout, " "));
        cout << "] : ";

        copy(net.output_pattern, net.output_pattern+m, ostream_iterator<double>(cout, " "));
        cout << endl;
    }

    return 0;
}

Output
before learning....
    [ -1.0000 -1.0000 ] : -1.0000
    [ -1.0000 +1.0000 ] : +1.0000
    [ +1.0000 -1.0000 ] : +1.0000
    [ +1.0000 +1.0000 ] : +1.0000

training....
    #0 : error : 0.0000
    Traning complete

after learning....
    [ -1.0000 -1.0000 ] : -1.0000
    [ -1.0000 +1.0000 ] : +1.0000
    [ +1.0000 -1.0000 ] : +1.0000
    [ +1.0000 +1.0000 ] : +1.0000

웃기게도 초기연결강도가 분리에 성공했음 -_-;;

---------------------------------------------------------------------------------------------------------------

하일라이트된 소스코드가 보고 싶으면

http://www.filepang.co.kr/entry/단층-신경망

이리로 가라능

추천 비추천

1

고정닉 0

0

원본 첨부파일 1

댓글 영역

전체 댓글 0
등록순정렬 기준선택
본문 보기

하단 갤러리 리스트 영역

왼쪽 컨텐츠 영역

갤러리 리스트 영역

갤러리 리스트
번호 제목 글쓴이 작성일 조회 추천
설문 비난 여론에도 뻔뻔하게 잘 살 것 같은 스타는? 운영자 24/06/03 - -
공지 프로그래밍 갤러리 이용 안내 [71] 운영자 20.09.28 35344 62
2709002 저 병신새끼는 병원가서 병원비든것도 러스트탓하네 ㅋㅋ [1] ㅇㅇ(59.16) 17:46 3 1
2709001 오늘은 조짐이 좋아 [4] ㅎㅍㄴㅅ(61.98) 17:45 9 0
2709000 편히쉬면 [5] 멍청한유라ㅋ갤로그로 이동합니다. 17:44 12 0
2708999 상반기 취업못한거같은데 하반기 노려야하는거임? 계속 보는공고만떠 [2] 프갤러(112.156) 17:41 16 0
2708998 Come and get your love [2] 멍청한유라ㅋ갤로그로 이동합니다. 17:41 12 0
2708997 나의 시드각성 능력은 공감 ㅎㅎㅎ 딱국(118.235) 17:40 7 0
2708996 성능 <- 이새끼 신경쓰는 개발자는 못살아남는다 [2] 프갤러(14.34) 17:38 16 0
2708995 아무것도 하기싫어 [6] 멍청한유라ㅋ갤로그로 이동합니다. 17:36 24 0
2708994 프리덤 2.0 실버코팅 ㅎㅎ [3] 딱국(118.235) 17:35 16 0
2708993 근데 한국인들이 노벨상 0개인 이유는 과학이라니깐 [4] 프갤러(218.149) 17:34 16 0
2708992 끙야가 너무 마려워서 에디터 위에 쌌어 ㅠ [5] AppHiki갤로그로 이동합니다. 17:33 12 0
2708991 사람은 안뽑고 만들건 존나 많아요 시발 [2] 프갤러(211.234) 17:30 16 0
2708990 인텔리제이 에러코드 ㅈㄴ 깔끔하게 보여주네 [1] 타입스크립트갤로그로 이동합니다. 17:22 12 0
2708989 조증상태가 되면 왜 인류애가 ㅈㄴ 폭증하는거임? [3] 딱국(118.235) 17:22 15 1
2708988 몸에 힘이 빠진다냥.. ♥여래신장냥덩♥갤로그로 이동합니다. 17:22 9 0
2708987 인맥없으면 프리로 먹고살기 [2] ㅇㅇ(175.223) 17:20 27 0
2708986 흠냐롱 저분 피에로님 맞나요? [3] 헬마스터갤로그로 이동합니다. 17:20 16 0
2708985 흠냐롱 [1] 흠냐롱갤로그로 이동합니다. 17:11 14 0
2708984 오늘 재벌처럼 돈 많이 쓰고 옮 [5] ☆단비☆갤로그로 이동합니다. 17:10 21 0
2708983 리얼미터에서 여론조사 3번왔다 [10] 헬마스터갤로그로 이동합니다. 17:01 34 0
2708982 디도스라는게 개인 컴퓨터로 하는건 의미없음? [6] 방가갤로그로 이동합니다. 16:56 29 0
2708981 프론트 스킬 그만올리고 백 공부 시작해야겠다 [5] 프갤러(106.240) 16:52 56 0
2708980 파이썬 프로젝트 뭐 하는게 좋을거 같음? [9] 프갤러(14.39) 16:49 37 0
2708979 최저시급을 나라에서 보존해주는 법 생기면 ㅋㅋ [1] ☆단비☆갤로그로 이동합니다. 16:40 43 0
2708977 ur fav young korean mathematician [1] 슬라보예지젝갤로그로 이동합니다. 16:38 15 0
2708975 노코드툴 난 좆도 비전 없다고 생각함. [1] 프갤러(175.208) 16:28 33 0
2708974 어떻게 해야 빨리 개발 할 수 있을까요? [1] 프갤러(165.132) 16:18 37 1
2708973 웹개발만 아니면 사실 it 유관분야 취업 매우쉬움 [3] 프갤러(115.21) 16:16 94 0
2708972 여유로워 [8] 멍청한유라ㅋ갤로그로 이동합니다. 16:16 59 0
2708971 헤라킷이다 마모되어서, 플라스틱이 경화가 떨어져서, 도리스아(119.195) 16:16 7 0
2708970 c++이랑 코틀린 잘아시는 고수 선생님들 코드 질문점.. [8] ㅇㅇ(125.242) 16:15 68 0
2708969 si sm이 어려운건 [1] 프갤러(115.21) 16:12 39 0
2708968 싸피 여기 뭐 그냥 다 대기업 얘기만 하냐 맨날 [1] 프갤러(112.150) 16:10 48 0
2708967 프로그램 만들어서 먹고 사는게 힘든 이유 [1] HKSJng(121.134) 16:10 41 1
2708966 나 프라 왔당 ㅎㅎ [4] 딱국(118.235) 16:06 42 0
2708963 진지하게 지금 노코드툴 개발 이런거 하는게 낫지않음 ?? [1] 프갤러(112.150) 16:02 34 1
2708962 뻥튀기 그냥 악으로 버텨 [2] 클갤(118.235) 15:58 33 0
2708961 html 의미론적 태그 많이 중요함?? [10] 프갤러(125.246) 15:57 66 0
2708960 어제 알바 뛴거 16만원 들어옮 [6] ☆단비☆갤로그로 이동합니다. 15:56 37 0
2708959 취업 안되면 비주류 분야로 개발취업하면 길은 많지않음 ?? [2] 프갤러(112.150) 15:56 50 0
2708958 이번에 크림 바꿨는데 ㄷㄷ [1] nxboyj(121.154) 15:49 11 0
2708957 Rx Chat Gpt - 음성 인식 부분 처리 됐음 [1] 프갤러(121.172) 15:44 30 1
2708956 이거 ai 가 글쓴 거임? ☆단비☆갤로그로 이동합니다. 15:38 22 0
2708955 하드웨어 지식 쓰는 개발자 없음? [9] 프갤러(61.84) 15:35 67 0
2708954 [잡정보] Coding 의 과정에서 중요한 것은?.. [3] +abcd3421갤로그로 이동합니다. 15:32 24 0
2708953 본인도 피부과 진료완료♥+ [3] 헬마스터갤로그로 이동합니다. 15:31 37 0
2708952 요즘도 국비충들 많음? [1] 프갤러(112.155) 15:29 42 0
2708951 병원 진료 끝나고 귀가 중 ☆단비☆갤로그로 이동합니다. 15:29 15 0
2708948 it판 개판났네 ㅋ 프갤러(211.234) 15:22 95 3
갤러리 내부 검색
제목+내용게시물 정렬 옵션

오른쪽 컨텐츠 영역

실시간 베스트

1/8

뉴스

디시미디어

디시이슈

1/2