개혁신학도 법적인 제도를 마련하고 거기에 따라 어서 세계적 변화를 따라 잡아야 합니다. 그래야, 신학의 발전이 지속되며, 다른 종교보다 올바른 방향을 선점할 수 있습니다. 관련하여, 이는 관심 있고 능력 있는 목사님과 행정적, 그리고 데이터 기술적 기술을 필요로 하는 협업체계가 구성되어야 가능합니다.
* 10년 전 논문임을 참고해도 될만큼, 아직 행정적 법적 제도가 뒷받침되지 않고 있습니다. 하지만, 시간이 넉넉하지는 않습니다. 아래의 논문 요약과 첨부된 PDF, HTML 문서를 참고하세요!
* 이 site를 통해 다운로드하면, 무료로 사용가능합니다.(본 사이트는 한국저작권위원회의 규정을 준수합니다. dbpia와 무관한 자료임)
https://celpu.snu.ac.kr/bbs/download.php?bo_table=journal&wr_id=19&no=7
* 이하, 논문의 HTML 버전입니다!
경제규제와 법(Journal of Law & Economic Regulation)
제8권 제1호 (통권 제15호). (Vol. 8. No. 1). 2015. 5. pp.88~108
특집 | 주요 선진국에서의 빅데이터 활용을 둘러싼 법적 쟁점과 제도적 과제 고찰
빅데이터와 알고리즘:
독일 관점에서의 예비적 고찰
Big Data and Algorithm : Preliminary Notes from Germany
Hans-Heinrich Trute*⋅김 태 호(역)(Tae-Ho Kim)**
치를 통해 승인되고 보호되어야 한다고 서술한다. 새로운
목차
형식(기술)은 대단한 장래성과 함께 두려움을 수반하기 마
Ⅰ
.
빅데이터: 무엇을 논의하는 것인가?
데이터 보호적 접근에 관해 언급할 몇 가지 점
분석기술의 문제에 관해 언급할 몇 가지 점
결 론
련이다. 이러한 기대가 실현될 것인지는 당분간 불확실한
상황으로 남아있게 될 것이다. 그러나 앞서 본 바와 같이,
이러한 사회적 실천은 몇 가지 중요한 제도의 구성, 가령
데이터 보호나 여타 기본적인 관념의 접근에 있어서 의문
점을 제기하게 하는 잠재성을 갖고 있다. 그런 점에서 규
제의 시도는 피할 수 없는 것처럼 보인다. 다양한 대답이
가능할 것처럼 보인다. 그러나 현재로서 이 기술의 잠재성
은 불확실하고 그로부터 수반되는 장래성과 위협은 모두
과장되어 있다.
Ⅱ.
Ⅲ.
Ⅳ.
<국문초록>
빅데이터는 상이한 정보원으로부터 비롯된 많은 양의
정보를 대용량 기억장치와 데이터들을 분석하는 정보적
도구에 의해 결합하는 것으로 정의된다. 정보의 크기, 정
보 원천의 다양성과 분석 속도는 빅데이터의 특징이다. 저
자는 이러한 개념에 대해 다른 접근을 제안한다. 저자의
시각에 따르면 빅데이터의 이러한 관념은 적어도 두 가지
이유에서 오해의 소지가 있다. 즉 그것이 오로지 데이터의
측면에 관련된 것으로 보인다는 것과 그것이 기술적인 문
제로 보인다는 것이다. 그와 달리 저자는 빅데이터는 하나
의 현상으로서 이해되어야 하며 복잡한 사회적 실제라고
생각한다. 빅데이터는 데이터, 데이터 저장 하드웨어 및
소프트웨어, 데이터분석도구 뿐만 아니라 사회적 목적을
위해 빅데이터 기술을 사용하는 사회적 실제를 구성한다.
그런 점에서 빅데이터는 새로운 지식을 생성하는 수단으
로 바라보는 것이 최선일 수 있다. 저자는 민주적이고 개
방된 사회에서 새로운 지식의 생산은 다양한 법적 보장장
규제적 노력의 출발점으로서 발생 가능한 위협에 주목
하여 규제를 옹호하기 전에 빅데이터의 발전을 관찰하는
것이 나을 것으로 보인다. 오히려 이처럼 새로운 형식으로
자동 생성된 지식이 사회에 정착할 것으로 기대할 만한 논
거들이 있다. 법적 프레임은 새로 떠오르거나 기존에 존재
하던 문제에 적응해 나가면서 동시에 새로운 지식의 체계
를 만들어 가게 것이다.
Keywords: 알고리즘, 빅데이터, 데이터 최소화, 데이터 보
호, 새로운 지식, 자동으로 생성된 지식, 목적의 제한, 동의의
원리, 지식의 체계, 투명성, 사회의 디지털화, 데이터의 크
기, 지식 주장의 인증, 데이터 원천의 다양성, 분석 속도,
진실성
*
함부르크대학교 교수
** 서울대 법과대학 강사
88
김태호(역) - 빅데이터와 알고리즘 : 독일 관점에서의 예비적 고찰
양의 정보들은 대용량 기억장치와 데이터들을 분석
하는 정보적 도구(tool)에 의해 결합된다. 가르트너
(Gartner)의 정의에 따르면, 빅데이터는, 강화된
통찰력과 의사결정을 위해 비용효과적이고 혁신적
인 형태의 정보처리과정을 요구하는, 대규모, 고속,
고도의 다양성을 지닌 정보 자산이다.5) 데이터의
규모6), 데이터 출처의 다양성7) 및 분석의 속도8)
가 빅데이터의 특징이다. 여기에 종종 진실성9)이
특징으로 추가되기도 한다. 빅데이터의 개념은 적
어도 확실히 두 가지 이유로 오해되고 있다: 빅데이
터는 데이터의 측면만을 가리키는 것처럼 보이기도
하고 하나의 기술로만 보이기도 한다. 하지만 빅데
이터는 그 이상의 현상이고 복잡한 사회적 실천
(practise)이다. 빅데이터는 데이터, 데이터 저장
하드웨어와 소프트웨어, 데이터 분석도구, 그리고
사회적 목적을 위한 빅데이터 기술을 사용하는 사
회적 실천으로 구성된다.
Ⅰ
. 빅데이터 : 무엇을 논의하는 것인가?
종종 인용되어 우리를 믿게 만드는 것으로, 빅데
이터는 21세기의 석유1)라는 것, 빅데이터는 데이
터 보호에 있어서 근본적인 도전이 될 것이라는
것,2) 빅데이터는 인과율에 따른 과학을 과거 범주
로 밀어내고 상관관계(correlation)만이 문제되게
함으로써 과학에서 이론의 종말을 가져오는 변화를
초래할 것3)이라는 구절들이 있다. 좋든 싫든 빅데
이터에 관한 토론은, 개인의 행동, 심지어는 개인의
생각이 특정한 사람에 관한 큰 데이터 샘플에 접근
할 수 있는 사람들에 의하여 예측가능하게 되는 미
래를 떠올리게 한다. 물론 그것은 용감한 신세계일
런지도 모른다! 그러나 다른 이들에게 그것은 사회
의 디지털화에 따른 사회 전반 전환의 일부이다.4)
1. 빅데이터라 불리는 이 신비로운 것은
무엇인가?
2. 데이터에 관해 언급할 몇 가지 점
빅데이터는 마법의 자산을 갖고 있는 것처럼 보
인다. 빅데이터는 서로 다른 정보원(source)에서
비롯된 많은 양의 정보를 통해 정해지는데, 이 많은
빅데이터와는 다른 데이터의 개념은 잘 정의되
고 이해된다. 데이터는 종종 일종의 실질적인 실체,
사실(fact)로 보인다. 그러나 “데이터는 진실
(truth)을, … 어떠한 진실의 가정을 담고 있지 않
다. 데이터는 주장 이전에 주어진 것을 의미해 왔
다. 그 결과로 데이터의 의미는 항상 주장의 전략
및 맥락과 함께 움직인다. … 그것은 어떤 가능한
발견의 과정 밖에 있는 것들과의 상호 연결로부터
출발하여 실험과 관찰을 통하여 추구하고자 하는
(2015. 3. 30. 방문
)
참조.
2) Rubinstein, Big data. The end of privacy or
a
new beginning?,
rnals.org/content/early/2013/01/24/idpl.ips036.full.pdf+html (2015. 3.
30. 방문)]; World Economic Forum, Unlocking the Value of Personal
Data: From Collection to Usage, World Economic Forum, 2013,
Data_CollectionU sage_Report_2013.pdf (2015. 3. 30. 방문)];
Tene/Polonetsky, Big Data for All: Privacy and User Control in the Age
of Big Data Analytics, 11 Northwestern Journal of Technology and
Intellectual Property, 2013, 239
law.northwestern.edu/njtip/vol11/iss5/1 (2015. 3. 30. 방문)]; Mayer-
Sch nberger/Cukier, Big Data. Die Revolution, die unser Leben ver ndern
wird, 2013, 193면 이하.; Morgenroth, Sie kennen Dich! Sie haben Dich!
Sie steuern Dich!, 2014, 61면 이하
면
big-data (2015. 3. 30. 방문)].
ö
ä
6) 방대한 데이터의 사용은 감소하는 저장비용과 새로운 복구기술을
통해 다양한 종류의 데이터를 생산한다
7) 같은 목적을 위한 다양한 데이터 원천의 사용
8) 고속분석은 때때로 중요하고 선호된다
.
.
.
3) Anderson, The End of Theory, Wired, Vol. 16 No. 7, 2008; 철학적인
심층분석에 대해서는 Mainzer, Die Berechnung der Welt. Von der
.
ä
9) Deutsche Bank, Big Data - Die ungez hmte Macht, 2014, 9
면
Weltformel zu Big Data, 2014를 참조
.
[https://www.dbresearch.de/PROD/DBR_INTERNET_DE-PROD/PROD
ä
4) Moerel, Big Data Protection. How to Make the Draft EU Regulation
com/wp-content/uploads/NEWS%20-%20PUBLICATIONS/Moerel_
oratie.pdf (2015. 3. 30. 방문)].
0000000000328652/Big+Data+-+die+ungez hmte+Macht.pdf (2015.
3. 30. 방문)]; 진실성은 데이터의 질 그것의 정확성과 신뢰가능성
과 관련된다 불확실성은 때때로 과학적 수단에 의해서도 줄어들
지 않는다
,
.
.
89
경제규제와 법 제8권 제1호(통권 제15호) 2015. 5.
패러다임에 연결된다.”10) 독일의 과학사학자인 레
인베르거(Hans‐Jörg Rheinberger)는 게놈(유전
체)학을 구성하던 10년 전 경에 분자생물학의 시대
에는 과학적인 관찰과 실험의 트랙(tracks)이 추정
된 사실과 관련이 있을 때에만 의미가 있었다고 한
바 있다. 그 트랙들은 현상의 지표/대변으로 보였
다. 그런데 게놈(유전체)학의 출현과 함께 거대한
데이터에 구조적인 접근이 가능할 때에만 데이터가
의미를 가질 수 있다. 이를 다르게 놓고 보면, 더 이
상 현상에 비추어 트랙이 생성되고 그것이 갖는 대
표성 기능으로 인해서 수집되는 것이 아니라 트랙
은 새로운 사실/현상을 감지하게 하는 데이터로 쌓
이고 저장되는 것이다.11) 빅데이터 기술에 관한 사
례가 그러하다: 전자 흔적(trace)의 수집은 특정한
목적 하에서 특화된 데이터로 하여금 그것을 분석
하도록 정하게 된다. 그것들은 더 이상 현상을 대표
하는 것이 아니라 분석 도구를 통하여 현상/지식을
생성하도록 돕는다.12) 이것이 과학자들에 의해 혁
명이라 불리는 것이다. 이는 레인베르거가 말하는,
현대과학13)의 사회적 집합을 변화시킬 것이다.14)
다만 이것이 모든 실증적이고 실험적인 규율에 영
향을 미치는 현상이 될 것인지는 당분간 열려 있는
질문으로 남아 있을 것이다.
권으로 보호받는, 데이터 보호법의 핵심 개념이라
할 ‘개인 데이터’(personal data)가 갖는 의미와
비교했을 때 이상의 변화는 데이터의 의미에 있어
눈에 띄는 변화를 나타낸다. 이러한 변화는 인격 및
그와 유사한 것에 대한 (완전한) 프로필과 같은 개
념을 구성하는 토대가 된다.15) 여기서 데이터를 질
(quality)이나 행위(behavior)를 정확히 반영하는
것으로서 취급하지 않는 것이 가장 중요하다. 데이
터는 항상 구성과 해석에 열려 있고 불확실성이 매
우 높다.16) 쓰레기가 들어가면 쓰레기가 나오는 것
과 같이 데이터가 엉망이라면 그 결과 또한 그러할
것이다.
게다가 데이터가 대표하는 특징은 사라진다. 익
명화한 데이터라고 할지라도 그룹이나 계급을 구성
하는 목적을 분석하는 데 사용될 수 있다. 개인들은
특정한 그룹의 구성원으로서 취급받을 수 있고 나
아가 지식은 이러한 프로필로부터 도출될 수 있
다.17) 결론을 도출하기 위하여 실제 개인의 동일성
을 확인할 필요는 없다.
빅데이터 지식을 발생시키는 도구를 달리 취급
하게 하는 또 다른 측면은 데이터를 생산하고 수집
하는 방식이다. 삶의 거의 모든 면이 디지털화된 흔
적으로 변형된다는 것은 사실이다. 우리 모두는 오
늘날 전자적 의사소통을 위한 다양한 도구들을 통
해 엄청난 데이터 양 증가에 기여하고 있다. 전체적
인 성장은 하루에 거의 2.5 엑사바이트 또는 25억
기가바이트 증가하는 것으로 추정된다.18) 삶의 모
그런데 인격, 성격 또는 개인의 한 측면을 표현
하는 듯한, 그래서 프라이버시 또는 정보자기결정
10) Rosenberg, Data before the Fact, in: Gitelman (ed.),
an Oxymoron, 2013, 16 특히 36-37 ); R nen/Nyce, The Raw
is cooked: Data in Intelligence Practice, Science, Technology
Human Values, 38 (5), 665면 이하
11) Rheinberger, Wie werden aus Spuren Daten und wie verhalten sich
Daten zu Fakten?, in: Nach Feierabend. rcher Jahrbuch
Wissensgeschichte 3, 2007, 117면 이하 특히 123-124 ); Daston,
Baconsche Tatsachen, Rechtsgeschichte 1, 2002, 38면 이하 참조.;
„Raw Data“ is
면(
면
s
ä ä
&
.
15) Crawford, The Hidden Biases in Big Data, Harvard Business
(2015. 3. 30. 방문)].
Z
ü
f r
ü
ä
16) Deutsche Bank, Die ungez hmte Macht (각주 9), 9면.
(
면
17) Van Otterlo, Machine Learning View on Profiling, in:
A
ß
Hildebrandt/de Vries (ed.) Privacy, Due Process and the
Computational Turn - The philosophy of law meets the philosophy
(2015. 3. 30. 방문)]; Walther/Burger/Kindling/ Liebenau/Lienhard/
Lilienthal/Plewka et al., Forschungsdatenmanagement an Hochschulen
of technology, 2013, 41
면
(
특히 42
면)
이하.
18) Information Commissioner’s Office (ICO): Big Data and Data
Protection, 2014, p. 6, with reference to Souza et al., How to get
started with big data, BCG perspectives, The Boston Consulting
-
Internationaler
Humboldt-Universit
12) 추론된 데이터의 관념은 집합적 데이터로부터 새로운 기술을 생
성하는 기술과 관련이 있다
Ü
berblick und Aspekte eines Konzepts
f
ü
r
die
ä
t zu Berlin, 2013.
.
_wissenschaft100.html (2015. 3. 30. 방문)].
strategy_retail_how_to_get_started_with_big_data/ (2015. 3. 30.
방
ß
문
)]; Heuer, Kleine Daten, gro e Wirkung. Big Data einfach auf den
ü
14) 이것이 과학은 이론없이 작동한다는 것을 주장하는 것은 아니
Punkt gebracht., Landesanstalt f r Medien Nordrhein-Westfalen
다
. Mainzer, Berechnung der Welt (각주 3), 286면 이하 참조
.
(LfM), 2013, estimates an amount of 4,4 exabytes every two days;
90
김태호(역) - 빅데이터와 알고리즘 : 독일 관점에서의 예비적 고찰
든 면들에 대한 데이터의 위계적이고 수평적인 수
집은 상상하기 어려울 정도이다. 이것이 사회 현상
으로서 빅데이터의 가장 중요한 측면 중 하나이다.
사적, 공적 권력에 의해 이용될 수 있는, 거대한 데
이터 베이스에 모든 이가 접속하고 기여한다는 것
을 알면서 전자시스템이 사용된다. 그러므로 이 현
상을 재차 인용되는 ‘1984년’의 상징에 연결하는
것은 오해의 소지가 있다. 이러한 산발적이고, 분산
되며, ‘자발적인’ 기여로 인해 데이터를 수집하는
것은 빅브라더가 아니고, 그것은 현재 거의 제한되
지 않는 사회적 현상이자 현실이다. 벤담의 ‘판옵티
콘’에 대한 푸코의 재구성을 이 맥락에서 인용하는
것은, (빅데이터의 경우에는) 규율의 효과가 관찰
하는 주된 행위자에게 달려 있기 때문에 오해의 소
지가 있다.19) 그러나 디지털 사회에서는 관찰의 주
된 행위자도 없고 그런 식으로 규율받는 사람들도
없다. 그것은 삶의 모든 측면을 어느 정도는 공개하
는 것이다. 로베르토 시마노브스키가 제안한 바와
같이20), 이것이 일종의 지속적인 고백으로서 개념
지어질 수 있는지는 열린 질문으로 남아 있다.21)
감시에 관한 담론을 넘어서 볼 때 유비쿼터스 데이
터 생산이 사회적 실천 속에 박혀들어 있는 상태라
는 점은 확실하다.
의미에서의 알고리즘은 일종의 계산식에 바탕을 두
어 원하는 특별한 출력으로 (특히 빅데이터에서의)
정보를 전송하기 위해 코드화된 절차를 가리킨다.
물론 그것들은 특화된 결과를 위해 채택된 다소
엄격히 결합된 명령구조의 일종이다. 알고리즘은
일종의 기술로서 투입물을 산출물로 전환하는 엄격
히 동조화(coupled)된 스텝으로 보인다.23) 이것은
수학자들과 컴퓨터과학자들에게 진리일 수 있다.
그러나 실제 세계에서 알고리즘은 그러한 종류의
것이 아니다. 우리가 관심을 갖는 알고리즘은 그것
이 수행과 결과에 대해 지속적으로 적응(adaption)
함으로써 복잡성을 갖게 된다. 그것들은 그 자체로
종종 수행과정에서 (다시 산술적으로 설계되고 기
계적으로 작동하는) 학습 사이클과 결합되거나 자
동적으로 적응하게 하는 통제⋅평가체계와의 복잡
한 배치 속에 자리를 잡는다.24) 그러므로 복잡한
알고리즘은 다양한 블랙박스를 조합한 블랙 박스이
다. 이 점은 아웃사이더에게 뿐만 아니라 내부자에
게도 적어도 어느 정도는 진실이다.25)
알고리즘의 설계에 있어서 수학적 진보와 데이
터 저장 용량의 비약적 발전, 컴퓨터 계산 능력의
놀라운 향상이 새로운 질의 데이터 분석을 가능하
게 하였지만, 원리적으로 알고리즘을 설계하고 그
것을 분석적 목적으로 이용하는 것이 새로운 것은
아니다. 원리적으로 수십 년 동안 이용가능했던 기
술적 요소들은 고에너지 물리학(빅데이터 분석 없
이는 힉스 입자도 없었다), 그리고 인간 게놈의 서
열, 기후변화의 모델링, 또는 거대규모의 군사적 식
별 체계로서의 군대 운용에 이른다. 물론 그것들 중
에 일부는 실패(군사적 식별자의 경우)하였고, 일
부는 격렬한 사회적 논쟁(게놈, 기후변화)을 불러
일으켰다. 그러나 이러한 논쟁은 그것을 산출하는
3. 알고리즘 - (적어도 법학자들에게는)
알려지지 않은 존재
알고리즘과 인공신경망, 퍼지체계 및 베이지안
네트워크와 같은 현대의 컴퓨터 인공지능 개념들은
빅데이터 기술에서 핵심적 요소이다.22) 가장 넓은
Amatriain/Basilica, Netflix Recommendations: Beyond the
5
stars
2012/06/netflix-recommendations-beyond-5-stars.html (2015. 3. 30.
방문)].
23) Cormen et al., Introduction to Algorithms, 2009, 5면 및 13
면.
19) Foucault,
20) Simanowski, Data Love, 2014.
21) Van Otterlo, Machine Learning View on Profiling (각주 17), 42면은
유리집 마을의 상징을 사용한다
22) Kruse/Borgelt/Klawonn/Moewess/Ru /Steinbrecher, Computational
Intelligence, 2011, for brief overview cf. Van Otterlo, Machine
Learning View on Profiling (각주 17), 42면 이하
Ü
berwachen und Strafen, 1977, 251면 이하
.
24) Seaver, Knowing Algorithms, Media in Transition 8, 2013 [이 글에
서는 온라인 논문을 인용한다: http://nickseaver.net/papers/seaver
MiT8.pdf (2015. 3. 30. 방문)]; Gillespie, The Relevance of
Algorithms, 2012 [http://www.tarletongillespie.org/essays/Gillespie%
20-%20The%20Relevance%20of%20Algorithms.pdf (2015. 3. 30.
방문)].
.
ß
a
.
25) Seaver, Knowing Algorithms (각주 24).
91
경제규제와 법 제8권 제1호(통권 제15호) 2015. 5.
기술에 의문을 제기함은 없이 과학적 분석의 결과
에 초점을 맞추고 있었다.26) 거기서 작동하는 데이
터와 알고리즘의 문제는 다른 영역에서의 제도화
문제이다. 따라서 그것은 잘 정의된 법적 틀을 가진
단일한 기술이 아니다. 그것은 각기 다른 문제를 가
지고 다양한 영역에서 사용되며 그 모두가 개인 데
이터에 관한 것도 아니다. 순위를 매기는 도구, 추
천, 사회 네트워크, 검색 알고리즘은 일반적인 도구
일 수도 있고 특별한 목적을 위한 도구일 수도 있으
며, 예측의 도구는 의학적 분석이나 미래예측을 통
한 정책, 교육에서의 표절 소프트웨어의 사용 등의
몇 가지 예에서 사용된다. 이 모두는 각기 다른 도
전에 직면해 있다.
과 그것이 개인과 사회에 미치는 영향에 관한 논의
이다.
이러한 지식 생산 수단을 대한 법적 틀로서 데이
터 보호적 접근을 사용하는 것에 대해서는 격렬한
논쟁이 있었는데, 개인을 이용하면서 데이터 통제
자의 가공전략에 의해 개인을 본의 아니게 피해자
가 되도록 하는 빅데이터 기술에 대해 데이터 보호
적 접근을 하는 것은 유일하게 효과적인 방호벽인
것으로 보이기도 하였다. 그러나 데이터 보호의 원
리는 빅데이터 조류의 융성에 의해 곧 압도될 수 있
기 때문에 그것이 명확한 해답은 아닌 것으로도 보
인다.28) 그러므로 여기서는 데이터보호적 접근과
그 한계에 대해서 몇 가지 언급을 하는 것이 유용할
것이다. 데이터 보호의 원리가 관련된 한에서 독일
에서는 연방헌법재판소가 그 논의를 이끄는 주된
행위자 중 하나이므로 우선 헌법적 측면으로부터
논의를 시작하기로 한다.
분석학에 기반을 둔 알고리즘의 기술은 빅데이
터의 기초에서 지식(knowledge)을 생산하고 증명
한다. 그러한 기술들은, 하나의 사회적 실천으로서
새로운 지식 생산과 증명 체계를 이루는 것으로 보
인다. 이러한 지식 생산과 증명 체제는 개인과 관련
되거나 개인적 데이터와 관련해 중요할 뿐만 아니
라 집단적으로도 중요하다. 그러므로 그것은 데이
터보호청에 의해서 종종 주장되는 데이터보호의 측
면 외에도 많은 문제를 제기하게 된다. 이러한 종류
의 기술 사용은 기술사회학이 아니라 지식사회학의
용어로서 분석될 필요가 있다.27)
1. 기본적 보장으로서의 정보자기결정
프라이버시의 개념에 터 잡은 접근과 비교할 때
1980년대 초반부터 독일에서는 조금 다른 방식으
로 개인 데이터의 규제가 발전했다. 그것은 인격권
및 자기결정권에 터 잡은 접근이다. 연방헌법재판
소와 주 헌법재판소의 수많은 결정 중에서 1983년
의 국가인구조사결정은 선도적 결정으로서 데이터
보호의 핵심이 되었다.29) 그것이 일반적 인격권의
Ⅱ. 데이터 보호적 접근과 그 한계
보장(기본법 제2조 제1항)이라 할 자기결정30)
의
데이터 보호 이슈는 빅데이터에 관한 담론을 지
배하고 있다. 개인정보와 반드시 상관이 있는 것은
아닌 광범한 분야에서 빅데이터 수법이 사용되고
있다고 하더라도 데이터 보호 이슈의 지배는 놀라
운 일이 아니다. 그것은 넓은 의미에서 지식의 생산
정보 관련 측면을 다루는 첫 번째 결정은 아니었
다.31) 이 권리는 오랫동안 개인정보의 공개 여부에
28) Rubinstein, Big Data (각주 2).
29) 1983
209, 269, 362, 420, 440, 484/83, BVerfGE 65, 1면 이하
30) BVerfGE 54, 148 (155); 27, (6); 27, 344 (350 f.); 32,
년
12
월
15일 연방헌법재판소 제
1
부의 결정
-
1
BvR
.
1
373 (379); 35, 202 (220); 44, 353 (372).
26) 이것은 인간 게놈서열에 있어서는 부분적으로만 사실이다
이터 분석에 관해 최근에 제기된 몇 가지 질문들은 유전 관련
프라이버시의 예에서처럼 인간 게놈 논쟁에서 이미 제기된 것들
이다 그러나 이것은 분석 도구의 문제로서 논의된 것이 아니라
인간 게놈이라는 대상에 적용한 결과를 갖고 논의가 이루어졌다
27) Gillespie, The Relevance (각주 24).
.
빅데
31) 물론 정보자기결정권이 전자통신을 보호하는 유일한 헌법적 규
(
)
범인 것은 아니다
호하는 기본법 제10조이다
핵심은 통신행위의 내용을 보호하는 것이다
생하는 정보 및 생각의 교환 내용에 대해 행정당국은 원칙적으
로 알 가능성이 없어야 한다 기본법 제10조는 다음과 같은 보장
.
전통적으로 더 중요한 규범은 통신비밀을 보
통신에서 프라이버시 보호의 최대
통신수단을 통해 발
.
.
.
.
.
92
김태호(역) - 빅데이터와 알고리즘 : 독일 관점에서의 예비적 고찰
대해 개인이 스스로 결정할 권리를 구성하는 자기
결정권의 권리를 포괄하는 것으로 언급되어 왔다.
연방헌법재판소가 언급한 바와 같이 개인의 인격을
완전히 프로파일링하는 것이 가능할 수도 있다는
데 대해서는 두려움이 있었다. 인구조사 결정의 언
급처럼, 그러한 두려움은 현대 사회에서 데이터가
컴퓨터화되어 수집되고 이용되는 상황 하에서, 주
된 데이터 수집 주체로서 국가가 아무도 모르게 개
인의 행위에 영향을 미칠 수 있다는 것이다. 자주
인용되는 인구조사결정은 다음과 같이 기술하고 있
다:32) “자신에 관해 누가 무엇을 언제 그리고 어떤
기회에 알고 있는지를 국민이 더 이상 알 수 없는
사회질서 그리고 이를 가능하게 하는 법질서는 정
보의 자기결정권과 양립할 수 없다. 남들과 다른 행
동양식이 항상 기록되고 정보로서 계속 저장되며
이용되거나 전송되는지 여부에 대해 알지 못하는
사람은 괜히 그러한 행동양식에 의하여 주목의 대
상이 되려고 하지 않을 것이다. 가령 집회나 시민운
동에 참여하는 것이 공적으로 기록된다는 것과 이
에 의해 자신에게 위험이 생길 수 있다는 것을 고려
하는 사람은 아마도 그에 대한 자신의 기본권(기본
법 제8조, 제9조) 행사를 포기하려 할 것이다. 이는
개인의 개별적 인격발현가능성을 침해할 뿐만 아니
라 공공복리도 역시 침해한다. 왜냐하면 자기결정
은 국민의 행동력과 참여력에 근거를 둔 자유민주
적 공동체의 기초적인 기능 조건이기 때문이다. 자
유로운 인격발현은 현대의 정보처리 여건 하에서
개인정보의 무제한적인 조사, 저장, 이용과 전송에
대한 개인의 보호를 전제로 한다. 그러므로 정보자
기결정권은 개인정보의 이용과 유출 및 그것의 사
적 사용에 대한 개인의 권리를 보장하고 있다.”
이러한 개념은 프라이버시권(가령 유럽인권협약
제8조에서의 그것과는 다르다)과는 느슨하게 관련
되어 있다. 그것은 자기결정권과 함께 도출되고, 더
중요하게는, 행정기록과 등록부 및 개인에 대한 제재
권을 가지는 국가의 영역에서 발전하였다. 그러나 이
개념은 거의 무제한적인 방법으로 점점 더 많은 데
이터를 수집하고, 일단 수집되고 나면 수집된 데이터
를 매우 다양한 맥락에서 관리할 수 있으며, 따라서
전례 없는 방식으로 탈맥락화(decontextulaized)
할 수 있는 컴퓨터화된 시대를 위해 고안된 것은 아
니었다. 자기결정권의 견지에서 볼 때, 이것은 개개
인이 그들의 데이터를 어느 정도 자발적으로 제공
하게 되었다는 점에서 중대한 전환을 의미한다. 혹
자는 이로써 기본적인 권리들이 궁극적으로는 ‘동
의했다면 피해도 없다!’는 논리로 귀결될 수 있을
것이라고 주장하는데, 반대로 데이터를 제공하는
것을 정보에 대한 자기결정권을 행사하는 것으로도
볼 수 있다.
그러나 이는 보호에 관한 매우 협소한 이해이다.
모든 조사 결과는 개인이 데이터의 이용에 대해 우
려하고 있다는 점을 분명히 보여 준다. 그렇지만 개
인이 데이터 이용에 있어서 충분한 영향력을 갖지
못하는 것이 자명하다. 제시되는 대안은 작동할 수
있는 대안이 아니다. 장치(device)나 그 장치의 이
용은 개인적 자기결정의 일부이자 대화의 변화된
패턴의 일부가 되며, 그러한 환경에서 개인의 정체
성을 형성한다. 그러므로 이용행위는 개개인이 공
통된 인프라를 이용하는 것이라고 할 수 있다. 그
이용에 따른 결과로서 개인이 통제할 수 없는 목적
에 따라서 발생한 데이터의 이용까지 수용해야 한
다는 것을 의미하는 것은 아니다. 여기서 공적·사
적 영역의 구별은 다소 명확하지 않다. 개인이 타인
과의 대화를 위해 인프라를 이용한다는 사실이 필
연적으로 그 대화의 데이터가 한정적이지 않은 목
적을 위해서 수집되고 이용될 수 있어야 한다는 것
을 의미하지 않는다. 그러므로 자기결정의 확장이
새로운 환경에 맞추어서 이루어져야 한다.
을 하고 있다
.
①
서신
,
우편
,
통신의 비밀은 불가침이다
.
②
그
제한은 오로지 법률에 근거하여서만 행해질 수 있다
.
그 제한이
자유민주적 기본질서나 연방 또는 주의 존립 또는 안전의 보호
에 도움이 될 때에는 그 제한을 관계자에게 통지하지 않는 것과
법원에의 소송 대신 의회가 정한 기관 및 보조기관에서 심사하
는 것에 대해 법률로써 정할 수 있다
.
32) 이 결정은 콘라드 아데나워 재단이 번역해 두었다
-
.
그러나 이러한 자기결정의 확장이 정보 이용의
mination.pdf (2015. 3. 30. 방문)].
93
경제규제와 법 제8권 제1호(통권 제15호) 2015. 5.
불투명성에 대한 통제 상실의 문제를 해결하지는
않는다. 그러나 기본권에 관한 독일의 전통적 입장
에 따르면 기본적으로 자유의 본질적 보장은 국가
에 대한 개인의 권리에 기초를 두고 있지만, 나아가
기본권은 이른바 국가의 개입을 허용하고 일정한
범위에서 국가로 하여금 개입하도록 의무를 부여하
며, 그 보장의 기본적 목적이 실체적으로 또는 적어
도 절차적으로 구현되게끔 객관적 질서를 구성하는
것이기도 하다. 그러므로 독일에서는 개인의 자유
를 침해하는, 사적 주체에 의한 디지털 데이터 수집
범위의 변경 문제는 헌법적 권리의 관심사이다. 그
러므로 데이터보호는 전방위적인 관점에서 고찰될
수 있을 것이다. 이와 관련하여 개인 정보를 이용하
여 자동적으로 생성된 지식의 법적 체계를 우리가
과연 어떻게 명명할 것인지에 대해서는 훌륭한 헌
법적 주장들이 있다. 이것이 데이터보호에 관한 현
재적 접근을 바탕으로 전개될 수 있을 것인지는 좀
더 지켜보아야 할 것이다.
도 마찬가지인데 여기서는 제8조에서 프라이버시
개념에 더 비중을 두어 유사한 보장을 한다.35)
EU는 현재 새로운 데이터 보호 규제에 대해 논
의하고 있다.36) 유럽의회가 2014년 3월 개정안을
발의하였음에도 불구하고37) 유럽이사회는 아직 개
정안을 둘러싸고 논쟁 중이며 개정과정에 있다.38)
이하에서 필자는 독일법을 제외하고 빅데이터에 관
한 몇몇 유럽법 원칙들을 제시할 것이다. 독일법도
다른 유럽법 원칙들과 일정 부분 유사한 원칙에 근
거하고 있기는 하지만, 구조상 공적 영역과 사적 영
역을 엄격하게 분리하고 있다. 이러한 규정 체계는
유럽법에 따라서 개혁되어야 할 것으로 보이기 때
문에, 필자는 이 글에서 “데이터 보호에 관한 일반
규칙안”(이하 ‘일반규칙안’이라고 한다: 역주)을 중
심으로 논의를 하고자 한다. 일반규칙안은 유럽 내
에서 통용되는 다른 개념들과 마찬가지로 합법성,
공정성, 투명성, 필요성, 기타 데이터주체의 여타
of access to data which has been collected concerning him or
her, and the right to have it rectified.
2. 데이터 보호: 향후 유럽에서의 프레임
35) 유럽인권협약 제
8
조
-
사적·가족생활을 존중받을 권리. 원문은
다음과 같다
.
1. Everyone has the right to respect for his private and family life,
his home and his correspondence.
유럽법과 마찬가지로 국내법은 정보에 대한 자
기결정권에 따라서 데이터 보호 체계를 규정하고
있다. 유럽연합기능조약 제16조 제1항에 따르면 누
구나 자신과 관련된 데이터를 보호받을 권리를 가
진다. 유럽의회와 유럽이사회는 통상의 입법 절차
에 따라 연합 회원국들 뿐만 아니라 연합의 기구들
이 활동하기 위해 필요한 규정을 제정할 권한을 가
지고 있으며, 이러한 규정들은 유럽연합법에 부합
하여야 한다.33) 이는 유럽연합기본권헌장 제8조의
핵심적 내용을 포함하는 것이다.34) 유럽인권협약
2. There shall be no interference by a public authority with the ex-
ercise of this right except such as is in accordance with the
law and is necessary in a democratic society in the interests of
national security, public safety or the economic well-being of
the country, for the prevention of disorder or crime, for the
protection of health or morals, or for the protection of the
rights and freedoms of others.
유럽인권재판소에 따른 사생활의 관념은
,
개인이 정당하게 기대
할 수 있는, 동의없이는 출판될 수 없고 자신의 이미지에 대한
개인의 권리와 관련된 요소들을 포함하는 개인적 정보를 포함한다
(Von Hannover v. Germany, no. 59320/00, §§ 50-53 and 59, ECHR
2004
‑
VI; Flinkklil
ä
and other v. Finland No 25576/04 §§ 75, 76;
Hannover vs. Germany, no. 8772/10 § 41 참조).
36) Proposal for
a
Regulation of The European Parliament and of
the Council on the protection of individuals with regard to the
processing of personal data and on the free movement of
such data (General Data Protection Regulation), COM (2012)
11 final, 2012/0011 (COD).
33) 유럽연합기능조약 제16조 제
정보(personal data)의 보호에 대한 권리를 갖는다
34) 유럽기본권헌장 제 개인적 정보(personal data)의 보호
다음과 같다
1항 누구나 자신과 관련한 개인적
.
8조
-
.
원문은
37) Text adopted by the European Parliament 12 March 2014,
P7_TA(2014)0212.
.
1. Everyone has the right to the protection of personal data con-
cerning him or her.
38) 이사회는 현재 리스크 기반 접근에 따른 규제로부터 발생하는 행
정적 부담/준수 비용을 줄이려는 시도를 하고 있다. Council of
2. Such data must be processed fairly for specified purposes and
on the basis of the consent of the person concerned or some
other legitimate basis laid down by law. Everyone has the right
the European Union, 3 October 2014, 13772/14; 그 사이 위원회는
보호의 수준을 더 낮추려고 시도하고 있다. the position of the
Council of the European Union, 26 February 2015, 17072/3/14 참조
.
94
김태호(역) - 빅데이터와 알고리즘 : 독일 관점에서의 예비적 고찰
권리, 제도적 통제와 같은 몇 가지 원칙들에 근거하
져야 할지에 대한 논란이 있다.43) 원칙적으로 계속
적인 처리에 대해서는 탄력적인 해석 여지가 있도
록 저지선이 개별 사건별로 정해진다. 이로써 본래
의 목적과 계속적 처리 간의 관계, 계속적 처리의
맥락이나 정보 주체의 합리적 기대, 데이터의 특성
이나 계속적 처리가 정보 주체에 미치는 영향 및 추
가적인 보호조치들에 대한 고려가 가능하게 된
다.44) 이와 같은 방식의 접근은 데이터 통제권자에
게 백지위임을 하지 않으면서도 변경의 여지를 남
기는 것이다.45) 그러나 이러한 접근방식은 목적이
명확하게 기술되어야 가능하고, 그렇지 않다면 어
떠한 동의도 무의미하며, 데이터 수집 목적이 기한
을 정하지 않은 계속적 처리인 경우에는 포괄할 수
가 없다. 불명확한 출처의 데이터 세트가 불투명하
게 전 세계적으로 거래되는 상황 속에서 데이터보
호 기준을 기꺼이 준수하려고 하는 주체에게 목적
규정이 안내표지판 이상의 역할을 하리라고 상정하
는 것은 비현실적이다.
고 있다.39)
2.1 목적의 제한성
목적의 제한성 원칙에 따르면, 데이터는 특정되
고,40) 명백하며 정당한41) 목적을 위해서만 수집
(및 처리)될 수 있으며 그러한 목적에 부합하지 않
는 방식으로 그 목적의 범위를 넘어서 처리되어서
는 아니 된다{제5조 제1항 (a)}. 빅데이터 분석은
그 자체 다양한 목적을 위해서 데이터를 수집하고
이용하는 것이고, 그러한 다양한 목적을 데이터 수
집 당시에 알았어야 하는 것은 아니기 때문에 목적
제한성 원칙에 정면으로 도전하거나 이를 약화시키
려는 주장이 종종 제기된다.42) 데이터 브로커
(data brokers) 모델과 같은 몇 가지 비지니스 모
델들은 목적의 제한 없는 데이터 수집을 그 기반으
로 삼고 있다.
또 다른 쟁점으로는 빅데이터 기술의 혁신이 저
해되고, 영업의 자유가 침해된다는 우려이다. 예상
치 않은 상관관계는 모두 빅데이터 기술과 관련이
있다. 독일과 마찬가지로 유럽의 데이터 보호에 대
한 접근에는 두 가지 차원이 있다. 수집과 그에 따
른 데이터 처리가 각각 목적에 의해 제한되도록 한
다. 물론 데이터 수집을 위해서는 명백하고, 특정되
며, 정당한 목적이 요구된다. 목적을 특정하고 명백
하게 하도록 요구하는 것이 과도한 부담이라 할 이
유는 없다. 데이터의 계속적 처리에서는 사정이 다
르다. 계속적 처리에 있어서는 맨 처음 데이터가 수
집된 목적과 부합하지 않게 되는 것이 본질적인 전
제다. 세부적으로 꼭 지켜져야 할 선이 어디에 그려
2.2 합법적이며, 공정하고, 투명한
데이터의 처리는 합법적이고, 공정하며, 투명하
여야만 한다(제5조). 합법적이기 위해서는 하나 또
는 그 이상의 특별한 목적(제6조 제1항 a호)46)
에
대한 동의에 근거하거나, 또는 계약 이행에 필요하
거나(제6조 제1항 b호), 법적 의무 이행에 필요한
경우, 또는 데이터 주체의 중대한 이익 보호에 필요
한 경우, 데이터 통제권자가 공익적 업무를 수행함
에 있어서 필요한 적법한 이익이 있는 경우이어야
한다.
39) EU 접근에 대한 비판에 대해서는 Moerel, Big Data Protection (
4), 51면 이하.; 개인정보와 동의에 근거를 둔 접근에 대한 비
판적인 평가에 대해서는 Tene/Polonetsky, Big Data for All (각주
2), 256 면 이하
40) 특정은 목적제시의 모호함을 한정한다. Art. 29 Data Protection
Working Party, Opinion 03/2013 on purpose limitation, 15-16면 참조
41) 이것은 제 조에서 제시된 데이터 수집에 대한 법적 근거와 관련
이 있다 29조에 대한 실무그룹 각주 40)의 견해에 따르면 그것
은 법과의 정합성이라는 의미로서 더 넓은 개념이다
42) Rubinstein, Big data (각주 2).
각
43) Art. 29 Working Party (각주 40), 45면 이하.; ICO, Big Data and
주
Data Protection (각주 18), 20면 이하.
44) 자세히는 Art. 29 Working Party (각주 40).
.
45) 독일 데이터보호법의 관념은 계속적 이용을 규율하는 당초 목적
에 대해 더 엄격하고, 목적의 변화가 필요한 경우에 대해서는 추
ü
.
가적인 요건이 있다. Weichert, Big Data - eine Herausforderung f r
6
den Datenschutz, in: Gieselberger/Moorstedt (ed.), Big Data - Das
.
제
(
neue Versprechen der Allwissenheit, 2013, 131면 이하 참조
140 ).
46) 동의 요건은 제
(특히
.
면
7
조에서 규정되어 있다.
95
경제규제와 법 제8권 제1호(통권 제15호) 2015. 5.
a. 동의(Consent)
좀 더 자세히 말하자면, 데이터보호법은 자기결정
권의 보호 주체가 갖는 필요를 충족하고 있는가?
혹은 그들은 여기에 대해서 크게 신경쓰지 않는가?
그렇다면 그 이유는 무엇인가? 동의에 기초한 접근
방식은 개개인의 어깨에 무거운 책임을 부과하도록
하는 것이 가능한가?
중요한 요건 중의 하나는 데이터 주체의 동의인
데, 동의는 정보 보호 차원의기본적보호로서결과
적으로 정보의 자기결정으로부터 도출되는 것이다.
그러므로 동의는 반드시 자의로, 특정해서 이루어
져야 하고, 고지되어야 한다. 이와 같은 기본적 요
건을 충족하기 위해서 데이터 주체는 데이터 수집
과 처리 이전에 이를 고지받아야만 한다. 그리고 결
과적으로 동의는 그 목적이 (위에서 목적의 제한과
관련하여 논의한 한계를 넘어설 정도로) 변경되면
유효하지 않게 되거나 동의가 만료된다(제7조 제4
항). 중요한 것은, 어떤 경우에도 처리에서 통제권
자가 데이터 주체의 동의에 대하여 입증책임을 부
담한다는 것이다(제7조 제1항). 추가적인 요건은
제7조에 규정되어 있고, 특히 동의는 데이터 주체
와 데이터 통제권자의 지위에 현격한 불균형이 존
재하는 경우라면 그것이 데이터 처리를 위한 법적
근거로서 제공되어서는 안 된다.
b. 정당한 이익을 위한 필요성과 최소화
데이터는 특정한 목적을 위하여 필요한 것이어
야 하고, 그 수집은 적절하며 관련성이 있고, 최소
한 필요한 범위에 한하여야 한다(제5조 제1항 c
호). 데이터의 저장은 데이터 주체에 의해 직·간접
적인 정의가 가능할 경우에 그 목적과 관련된 최소
한에 그쳐야 한다. 필요성은 목적 제한성의 핵심적
인 요건과 밀접하게 연관되어 잇다. 그러한 데이터
들은 오로지 그 목적을 위해서 수집되어야 한다. 일
반규칙안의 보호 범위 내에서 이는 데이터 처리의
적법성의 한 부분을 구성한다(제6조). 동의의 범위
를 넘어선 처리를 위해서는 계약의 이행이나 데이
터 통제권자가 주체가 되는 법적 의무의 이행, 데이
터 주체의 중대한 이익 또는 공익적으로 수행된 공
공의 업무 등을 위한 정당한 이익이 필요하다.49)
비록 데이터의 필요성은 목적의 특정에 달려 있고,
통제권자로 하여금 탄력적으로 적용할 수 있는 여
지를 부여하지만, 빅데이터 기술과 필요성 간에는
긴장이 존재한다. 전자는 종종 목적 관련성이 있는
데이터만이 아니라 가능한 한 많은 데이터가 수집
되고 처리되어야 충분히 효과적이 된다고 인식한다
(키스 알렉산더가 ‘모래밭에서 바늘 찾는 격’이라고
했던 유명한 말을 상기해 보라).
몇몇 학자들은 빅데이터 도구가 동의의 원칙에
위협을 가하지 않는다고 낙관한다. 이는 다소 낙관
적일지도 모른다.47) 모든 전자장치가 익명의 수신
자에게 영구적으로 데이터를 제공하는 감지장치48)
인 환경에서 데이터를 영구적으로 수집하는데 그러
한 낙관을 하는 것이 현실적인 시나리오로는 보이
지 않는다. 가령 스마트폰 이용자라고 했을 때, 모
든 개별 이용자가 동의를 하여야만 하는 경우 이용
자가 데이터의 이용에 대한 확실한 예측을 내릴 수
있는 경우는 거의 없다고 해도 과언이 아니다. 예컨
대 건강에 관한 데이터는 매우 다양한 목적을 위하
여 수집되고 또 사용되게 될 것이다. 동의와 빅데이
터 기술의 개발 간에 균형을 유지하는 것뿐만 아니
라 개인의 자기결정 및 데이터보호법의 효율성과
강제 가능성 간에도 균형이 유지되어야 할 것이다.
데이터 최소화에 관해서도 마찬가지이다. 개인
데이터를 처리함에 있어서는 적절하고, 관련성이
있으며, 목적에 비추어 필요 최소한의 범위로 제한
되어야 한다. 빅데이터 기술은 본질적으로 가능한
한 많은 데이터를 포함한다.50) 이는 통계적인 필요
47) 동의 문제에 관한 심층적 토론으로는 이 책의 Fred Cate의 글을
참조
.
그 밖에 유럽식 접근의 문제에 대해서는, Moerel, Big Data
Protection (각주 4), 32면 이하 참조
.
ä
48) Hofst dter, Sie wissen alles: Wie intelligente Maschinen in unser
49) 더 상세한 분석에 대해서는 다음을 참조. Art. 29 Data Protection
Working Party, Opinion 06/2014 on the notion of legitimate
interests of the data controller under Art. 7 of Directive 95/46/EC.
ü
ä
mpfen
Leben eindringen und warum wir f r unsere Freiheit
k
ü
m ssen, 2014, 71면 이하
.
96
김태호(역) - 빅데이터와 알고리즘 : 독일 관점에서의 예비적 고찰
이다: 더 많은 데이터는 허위양성 및 허위음성 가능
성을 줄인다. 그러므로 언제나 더 많은 데이터를 보
유하는 것이 더 낫고 이를 다른 말로 다음과 같이
표현해 볼 수 있을 것이다: 빅데이터는 전부에 관한
것이다.51) 바로 그와 같은 이유로 다양한 데이터
원천을 포함시키는 경향이 있다. 생활방식은 신용
도52)에 리스크를 제기하게 될지도 모르고 건강 문
제도 그러하다. 빅데이터 도구는 아직까지 알려지
지 않은 상관관계를 밝혀주기도 하고, 그것은 빅데
이터 기술 지지자들이 주장하는 이유이기도 하다.
물론 상관관계를 찾아냈다는 것이 맨 처음 데이터
를 얻는 행위를 소급하여 정당화한다고 볼 수 없다
는 주장이 가능하다.53) 그러나 조직들에게 데이터
를 처리함으로서 무엇을 배우게 될 것을 기대하는
지 또는 무엇을 할 수 있게 될 것인지를 사전에 명
백하게 밝히도록 요구하는 것은 미래에 무엇을 알
기 원하게 될 것인지를 미리 명확하게 밝힐 수 있는
것인지 하는 의문을 불러일으킨다. 만일 조직들이
그러한 것을 미리 알 수 있다면, 빅데이터 기술은
더 이상 적용될 필요가 없을 것이다.54) 데이터의
범위를 제한하거나 최소화하고 나중에 데이터를 다
시 수집할 충분한 유인이 있다고 믿는 것은 다시 한
번 낙관적인 전망일 수 있다.
필요한 목적 이상의 기간 동안 저장되어서는 아니
된다. 데이터는 나중을 위해서 수집된 목적대로의
관련성을 가지게 될 수도 있기 때문에 데이터 저장
과 검색기술과 더불어 데이터를 전보다 훨씬 장기
간 저장할 높은 유인이 존재한다. 저장 능력은 더
이상 저장 공간을 확장하는 데 장애를 나타내지는
않으며 검색 기술의 향상도 같은 방향으로 작용한
다. 가장 최신의 데이터에 대한 이익이 항상 있는지
또는 없는지, 저장을 피할 다른 유인이 있는지 없는
지는 보다 경험적인 문제로 보이고, 그것이 이전의
주장들을 무효화하는 것은 아니다.
2.3 익명화와 집합
익명성과 개인 데이터의 집합은 종종 빅데이터
문제의 해결 방안으로 여겨진다.55) 물론 개인 데이
터가 전적으로 익명화될 경우 그것은 더 이상 개인
데이터가 아닌 것이 되며 데이터보호법 체계는 더
이상 적용되지 않는다. 전적으로 익명화되었다는
것은, 다른 데이터와 조합되더라도 더 이상 식별(또
는 재식별)할 수 없게 되었다는 것을 의미한다. 종
종 빅데이터를 분석하는 목적은 개별 개인에 대한
지식이 아니라 대개 새로운 지식을 얻고자 하는 데
있다. 대표적으로 두 가지를 들자면, 과학적인 설정
이 종종 그러하며, 의학적인 연구에 있어서 임상 실
험의 경우 또한 마찬가지이다. 그러므로 익명성과
빅데이터 기술은 항상 모순되는 것은 아니다. 그리
고 익명성 기법을 활용하는 것이 기업과 실무상 신
뢰를 향상시키는 것 또한 사실이다.56)
데이터 저장 최소화의 요건에 관하여서도 이와
유사한 측면이 발생한다(제7조 제1항 e호). 데이터
주체를 직접 또는 간접적으로 인지할 수 있도록 허
용하는 데이터는 그것이 수집 또는 처리되기 위해
50) ICO, Big Data and Data Protection (각주 18), 23
51) Mayer-Sch nberger/Cukier, Die Revolution (각주 2), 38
든 것을 포괄한다는 것도 그 자체의 문제가 있다 그것은 일종의
기술적 낙관주의를 대표하는 것이며 빅데이터 분석의 결과가 진
실을 반영한다는 숨은 가정과 결부되어 있다 그러나 데이터
모델링은 구성적인 과정이다. Hildebrandt, Slaves to Big Data.
면.
이는 빅데이터 기술을 통한 재식별 가능성에 대
한 수많은 일례들과 상치되는 것처럼 보인다. 종종
빅데이터 분석방법은 충분히 다시 한 번 효과적으
로 재식별을 하게 할 수 있다는 주장이 제기된
다.57) 몇몇 측면들은 구별할 가치가 있다. 첫째, 재
ö
면.
물론 모
.
.
,
추
론,
viewcontent.cgi?article= 1068&context=mireille_hildebrandt (2015. 3.
30. 방문)]; other aspects are discussed by O’Neil/Schutt, Doing
Data Science: Straight Talk from the Frontline, 2014, Chapter 2;
Boyd/Crawford, Critical Questions for Big Data, Information,
55) Weichert, Big Data (각주 45), pp. 145 ff.; ICO, Big Data and Data
Protection (각주 18), 11면 이하
56) 반대측면으로서 이것은 지식서비스를 다루는 특정 회사에서 신
뢰의 상실을 통해 확인된다
.
Communication & Society 15 (5), 2012, 662면 이하
52) ICO로부터의 예는, Big Data and Data Protection (각주 18), 23
53) ICO, Big Data and Data Protection (각주 18), 23
54) 또한 Hildebrandt, Slaves (각주 52), 14면 이하 참조
.
면.
.
면.
57) Executive Office of the President, Big Data: Seizing Opportunities -
.
97
경제규제와 법 제8권 제1호(통권 제15호) 2015. 5.
식별 가능성은 실증적인 질문이며, 그 답은 기술의
향상에 기인하여 바뀔 수도 있을 것이다. 앤 카부키
안(Ann Cavoukian)과 다네일 카스트로(Daniel
Castro)58)의 철저한 분석에서 보는 바와 같이, 재
식별의 위험성이라는 것은 종종 극도로 과장된다.
대체로 재식별이 현재의 기준에 따라서 적절하게
이루어지기만 하면, 식별화 방지(deidentification)
가 작동하는 것으로 보인다. 둘째, 재식별 가능성은
적어도 두 가지 이유 때문에 완전하게 배제될 수 없
다: 재식별 가능성은 새로운 기술이 아니다. 또한
사람들은 규범이나 기준을 준수하지 않기 때문에
타인에 대해 위험을 창출한다. 두 가지 모두 피할
수 없는 것으로 오로지 데이터 보호의 문제에서는
회피할 수 있는 현상이 아니다.
여 취급될 것이다. 물론 무리에 소속된 개인들과의
경험이나 그들에 대한 지식은 아날로그 시대에서도
있다. 그렇지만 이것이 차별 가능성을 야기할 수 있
으며, 단순히 처리 알고리즘이 불투명하다는 점 외
에도 빅데이터 분석이 다양한 원인들을 위장할 가
능성을 높이게 될 것이라는 것은 분명하다.
2.4 자기결정과 객관적 지식체계 사이에서의
데이터 보호
유럽에서와 마찬가지로 적어도 독일에서의 데이
터 보호법적 접근은 데이터 주체(개인)의 자기정보
결정권에 상당한 무게를 두고 있다. 그러나 헌법적
쟁점의 맥락에서 논의된 바와 같이, 심지어 정보의
자기결정권 개념이 형성된 초기에도 일종의 마찰이
존재했다. 이는 보호를 개별화하고 어디까지 개인
정보를 공개할 것인지 범위를 결정할 권리를 부여
한다. 그러나 개인은 타인의 관찰을 억제할 수는 없
기 때문에, 개인의 자기정보결정권은 사회의 일원
으로서의 개인을 과대평가한 것이라고 하는 지적도
일리가 있다.61) 대중 속에서 개인이 자신의 이미지
를 통제하도록 정보의 자기결정권을 확장시키는 것
은 분명히 문제의 소지가 있다. 빅데이터의 맥락에
서 더욱 중요한 것은, 비록 개인의 효율적인 통제
범위에서 벗어나 있는 먼 지점에서 발생하거나 경
우에 따라서는 데이터 수집 초기 단계의, 개인적인
측면과는 아무런 관련이 없이 데이터 수집이 발생
하는 경우에도 그 개인이 규제의 시작점이자 기준
점으로 된다는 점이다.62)
그러나 익명성은 오직 제품이나 서비스의 일부
데이터 분석과 관련되어 있으며, 이 경우에 그 목적
은 인격화 또는 개인화가 아니다. 이와 같은 경우에
는 분석과 익명성 및 인격화 사이에 명백히 긴장 관
계가 형성된다. 이러한 관계는 명백히 자기결정과
정당한 이익, 그리고 합리적 기대 간의 형량의 문제
로 귀결된다.59)
또 다른 측면을 언급하는 것도 가치가 있을 것으
로 보인다. 빅데이터 기술은 종종 집단이나 무리에
대한 지식을 생성하는 것을 목적으로 한다. 비록 이
러한 지식이 집합적인 데이터 세트로부터 생성되더
라도 어떤 한 개인이 그와 같은 무리에 소속된 것으
로 식별된다면 이러한 지식은 사용될 수 있다.60)
그리고 이 개인은 그가 속한 무리의 속성과 일치하
정보 보호의 차원에서는, 어떻게 개인 데이터가
생성되는지 설명할 수 있는 다음과 같은 여러 가지
files/docs/big_data_privacy_report_may_1_2014.pdf (2015. 3. 30.
방문)].
카테고리들에 주목하는 것이 중요할 것이다.63)
즉
58) Cavoukian/Castro, Big Data and Innovation, Setting the Record
Straight: De-indentification Does Work, 2014.
59)
제6
조 제
1
항
(f)의 내용은 다음과 같다: processing is necessary for
the purposes of the legitimate interests pursued by the controller
or, in case of disclosure, by the third party to whom the data is
disclosed, and which meet the reasonable expectations of the data
subject based on his or her relationship with the controller, except
where such interests are overridden by the interests or fundamental
rights and freedoms of the data subject which require protection of
personal data. This shall not apply to processing carried out by
public authorities in the performance of their tasks.
61) 상세한 비판으로는
in: Ro nagel (ed.), Handbuch des Datenschutzrechts, 2003,
157면 이하(164면 이하 참조.).
,
Trute, Verfassungsrechtliche Grundlagen,
ß
62) 헌법적 측면에 대해서는 앞의 B. I. 참조
.
63) ICO, Big Data and Data Protection (각주 18), 35면; OECD 라운트
테이블 논의에 대해서는, Summary of the OECD Privacy Expert
publicdisplaydocumentpdf/?cote=dsti/iccp/reg (2014)3&doclan-
guage=en (2015. 3. 30. 방문)].
60) Van Otterlo, Machine Learning View on Profiling (각주 17), 42
면.
98
김태호(역) - 빅데이터와 알고리즘 : 독일 관점에서의 예비적 고찰
(1) 제공된 데이터64); (2) 관측된 데이터65); (3)
파생된 데이터66); (4) 추론된 데이터67) 등이 그
것이다. 이러한 분류를 살펴보았을 때, 이것은 분명
히 개별 개인으로부터의 일종의 거리감, 데이터 수
집을 통제할 수 있는 가능성의 감소, 그리고 지식이
생성되게 된 다양한 이유에 따라 묘사되고 있다. 이
에 따라 아마도 정보의 자기결정권이 명백한 한계
를 가지고 있는 것과 같이 개인 정보 통제권에도 일
종의 한계를 설정하는 데 타당성을 부여할 수 있을
것이다. 빅데이터 기술은 특히 (3)과 (4)번 카테고
리에 기반하고 있다. 그렇기 때문에 개인에게 무거
운 입증책임을 부담시키거나 허구로 꾸며내도록 하
지 않고서는 이것이 개인의 자기정보결정권이라는
개별적 권리가 미치는 범위 안에 있을 것으로 상정
하기는 거의 불가능하다. 이러한 카테고리들은 이
러한 지식생성의실제예들이가지는보다 객관적
인 측면을 보여준다. 그러므로 데이터의 이용 및 개
인과 사회에 미치는 영향을 구조화하고, 이와 같은
유형의 지식 생성을 대비한 일련의 법적 틀(frame)
을 확립하는 것이 보다 중요하게 인식되어야 할 것
이다. 이것은 순수한 개인에 기초한 보호라기 보다
는 절차적, 조직적 접근에 결부된 개인에 대한 보호
일 것이다. 그러므로 적용(application) 시스템의
구조는 이러한 ‘새로운’ 기술의 사회적 함의와 개인
간의 이익을 형량하도록 하는 것이 보다 현실적이
다. 아울러 이러한 접근은 부분적으로 개인 데이터
에 대해 재산권을 부여하고68), 강제이행을 할 수
있는 구조를 시행할 수 있도록 할 것이다. 이러한
식의 접근이 저작권법 등의 다른 영역에서 가능하
다면 왜 여기에서 개념화하는 것이 불가능하겠는
가. 오히려 이것은 개인 데이터의 보호에 대한 자기
결정권이라는 허구적인 접근 방식 보다 더 많은 역
할을 하게 될 것이다.
Ⅲ. 분석기술의 문제에 관해 언급할
몇 가지 점
앞서 주장한 바와 같이 데이터 보호의 측면은 고
려되어야 할 유일한 측면이 아니다. 빅데이터 기술
이 영향력이 있다면, 더 객관적인 성격을 갖는 다른
측면에 대해서 언급하여 두는 것이 유용하겠다.
1. 프로세싱 알고리즘의 투명성: 하나의
환상?
투명성은 늘 그 자체가 민주적 가치로서 인정받
는 것처럼 보인다. 투명성은 데이터 보호적 접근에
서도 결정적인 역할을 한다.69) 투명성의 요청이 없
다면 동의에 기반을 둔 데이터 처리 접근이 작동하
리라 상상하기 어렵다.
자동적으로 지식을 생성하고 결정을 내리는 시
스템의 힘을 다루는 데 투명성이 어느 정도까지 도
움이 될 것인지는 다소 불명확하다. 그러므로 투명
성은 이 영역에서 논쟁적인 쟁점이다. 투명성의 촉
진자, 지식 기계(machine)의 힘에 맞서는 데 완벽
한 투명성70)까지 요구하지 않은 사람들 또한 투명
성이 분석 도구에 대해 비판적인 평가를 가능하게
한다고 주장한다. 그러나 투명성이 알고리즘에 따
른 지식 생산의 힘을 다루는 데 중요할 수는 있지
64) 제공된 데이터란 그 데이터에 대해서 완전히 인식하고 있는 개
인의 직접적 행위에 의해 도출된 데이터를 가리킨다
65) 관측된 데이터란 디지털 형태로 타인에 의해 관찰되고 기록된
데이터를 가리킨다 이러한 데이터는 그 생성 순간에 기록되거
관찰 후에 전달될 수도 있다
66) 파생된 데이터란 다른 데이터로부터 생성이 된 후에 특정한 개
인과 관련하여 새로운 데이터 요소가 된 것을 가리킨다 파생된
데이터는 단순한 논증과 데이터 세트 내의 패턴을 감지하고 분
류를 하는 기본적 수학을 사용하여 공평하게 기계적 방식으로
산출된다고 한다 이러한 분류는 추후 예측적 목적을 위해서 사
용될 수 있는데 그것은 그 자체로 확률적 논증에 기반을 둔 것
은 아니다
67) 추론된 데이터는 확률 기반 분석 과정의 산물이다
의 예측을 하는 데 사용되는 상관관계 감지의 결과이다
예측은 개인을 범주화하는 데 사용될 수 있다
68) 관련 토론으로 Moerel, Big Data Protection (각주 4), 22면 이하 참
.
.
나,
.
.
‘
’
.
,
조
.; Tene/Polonetsky, Big Data for All
Hildebrandt, Slaves (각주 52), 12-13
69) 일반규칙안 제11조 이하
(각주 2), 263면 이하;
.
면.
.
그것은 행동
이러한
.
.
70) 투명성에 관한 역사적인 심층 접근과 그 단점에 대해서는
Schneider, Transparenztraum, Literatur, Medien und das
.
ö
Unm gliche, 2013 참조
.
99
경제규제와 법 제8권 제1호(통권 제15호) 2015. 5.
만, 투명성 의무로부터 너무 많은 것을 기대하는 것
은 여러 이유에서 과도한 단순화일 수 있다. 한 회
사가 빅데이터에 기초해서 자동적으로 지식을 생성
해 내는 수법은 다양한 이유에서 예측하기가 종종
어렵다. 지식 생성시스템으로부터 기인한 손실을
입었다고 주장하는 개인들은 커튼 뒤를 볼 수 없다.
그 이유 중의 하나는 상업 시스템이라는 속성71)
(신용점수에 관한 정보를 공개할 의무와 거래 비밀
로 인한 공개의 한계를 생각해보라) 때문일 것이다.
또 다른 이유는 지식의 생산이나 게임에 내재하는
복잡성을 이해하는 데 있어서는 수학적·기술적 전
문가가 필요하기 때문이다.
이 넷플릭스 기술 블로그에 공개되어 있다. 그것은
다양한 알고리즘의 복잡한 조합물이다.74) 그것은
다른 알고리즘을 결합하는 문제일 뿐만 아니라, 시
스템을 더 복잡하게 하는 방식으로 지속적 혁신을
하는 것은 물이고 스스로 적응해 가며 학습하는 기
계로서의 도구 문제이다. 따라서 그것의 결과물은
종종 커튼 뒤에서조차 쉽게 예측되기 어려울 수 있
다. 그리고 어떤 내부자가 갖는 지식이 적어도 특정
케이스에서 외부인에게 도움이 될 것인지도 명확하
지 않다.75) 심지어 내부에서 알려진 것이 외부에
흥미를 불러일으키지 않을 수도 있다. (작동하는 시
스템의 서로 다른 고리에서 순위를 매긴 매우 긴 리
스트의 형식으로) 사용되는 함수와 척도는 종종 우
리가 무엇을 알고 싶어 하는지를 이야기해 주지 않
으며 외부에 대해 이 시스템을 사용하는 실제를 드
러내지도 않는다. 그러므로 내부로부터 외부로의
지식 전달은 투명성의 요구가 종종 상정하는 것만
큼 쉽지 않다.
1.1 투명성의 한계
투명성과 분석 시스템의 작동은 확실히 상충관
계에 있을 수 있다. 가령 필터링 시스템의 상세한
내용을 공개하는 것은, 그것이 행위자로 하여금 시
스템과 게임을 할 수 있도록 하기 때문에, 투명성을
쓸모없게 만들 것이다.72) 시스템의 복잡성에 따라
차이가 있을 수는 있겠지만, 원칙적으로 완전한 투
명성은 도박전략으로 이어질 수 있다. 심지어 이 영
역에서도 이것은 거래 기밀의 보호를 위한 좋은 논
거가 될 수 있다.
다른 측면에 대해서도 언급할 필요가 있어 보인
다. 사람들의 이해관계에 직접적인 영향을 미치는
것이 명백한 평가 도구 - 신용평가 도구를 생각해
보자 - 를 취급한다면 외부로 내부의 지식을 전달
해야 한다는 아이디어가 확실히 어느 정도 타당하
다. 그러나 그 상황은 기술을 통해 선호도, 검색이
력, 친구집단, 사회적 관계를 이용한 정보를 제공하
는 정보 도구의 경우와 다르다. 이러한 사례에서 투
명성의 이슈는 관건이 되는 쟁점이 아니다. 그 문제
는 다른 종류의 편향, 특히 정보가 시스템에 보존되
어서 등급화하고 선별하는 효과를 가져오는 문제이
다. 이것은 시스템 내부에서 다양성의 실행 문제이
거나 어떻게 시스템 내에 다양성을 심을 것인가의
문제이다. 그것은 어떤 이가 내부적 지식을 갖도록
돕는 문제가 아니다. 여기서 흥미로운 측면은 중요
시스템과 도박을 하는 이러한 문제점에도 불구
하고, 접속이 쉽다고 하여 새로운 지식을 기대하는
것은 과도한 단순화인 것처럼 보인다. 확실히 투명
성 요구 뒤에 숨겨진 가정이 있다. 그 가정은 커튼
뒤에 누군가가 이미 우리가 무엇을 알고 싶어 하는
지를 알고 그들이 해야 할 것은 그것을 우리와 나눈
다는 것이다.73) 어떤 분석도구들이 매우 복잡하다
는 점을 생각해 보면 이러한 가정은 불합리하다. 예
를 들어 넷플릭스의 추천 도구(tool)을 상정해 보
라. 이 추천 도구는 어느 정도까지는 일반적인 내용
71) 연방통상법원
신용점수에 관한 정보 공개의 의무와 거래비밀에 따른 그것의
제한
72) 이러한 맥락에서 종종 Godhart의 법칙이 인용된다
적 규칙성은 압력이 통제 위에 주어질 때 붕괴하는 경향이 있다
73) Seaver, Knowing Algorithms (각주 24), 7
(
민사
)
의 결정에 대해서는 BGHZ 200, 38면 이하
:
74) Amatriain/Basilica, Netflix Recommendations
(
각주 18),
stars
Amatriain/Basilica, Netflix Recommendations: Beyond the
5
.
2012/04/netflix-recommendations-beyond-5-stars. html (2015. 3.
30. 방문)].
:
관찰된 통계
.
면.
75) Seaver, Knowing Algorithms (각주 24), 8면.
100
김태호(역) - 빅데이터와 알고리즘 : 독일 관점에서의 예비적 고찰
한 사회적 가치로서 다양성을 실천하는 것이 어느
정도나 쓸모가 있는지이다.
에서 행위의 개연성을 산정하는 데 필수불가결한
것임을 잘 드러내 보여주는지를 모니터링한다. 흥
미로운 점은 평가매커니즘의 실패나 데이터의 오류
가 있었는 사례에서 평가가 산출된 사람들의 권리
이다. 데이터 주체는 데이터의 출처에 관한 정보를
포함해서 기록된 데이터, 데이터의 수신자 및 기록
의 목적에 관한 정보를 요구할 수 있다(연방정보보
호법 제34조 제1항). 위에서 언급한 평가 활동을
하는 경우에 정보 의무는 보다 상세하지만 투명성
의 요구에는 한계가 있다. 연방데이터보호법 제34
조 제2항79)에 따르면 데이터 주체는 개연성의 가
치, 사용된 데이터의 유형에 대한 정보를 요구할 수
있으며, 어떻게 그 개연성이 산정되는지와 그 중요
성에 대해 일반적으로 이해할 수 있는 용어로 된 정
보를 요구할 수 있다. 이것은 알고리즘을 공적으로
만드는 것이라기보다 잘못된 상태에 있는 데이터의
수정을 허용하고, 사용된 데이터의 유형을 전체적
으로 살펴볼 수 있도록 하며, 일상용어로 그 결과산
출에 대해 설명하도록 허용하는 것이다. 독일의 연
방통상(민사)법원 판결에 따르면 평가기관은 그 이
상을 제공하고 알고리즘 그 자체를 게시할 의무는
없다고 한다.80) 정보에 관한 권리는 평가에 관한
1.2 투명성에 대한 이익형량 접근
이것이 어떤 투명성의 요구가 부적절하고 도움
이 안 된다는 것을 의미하는 것은 아니다. 가령 독
일 연방데이터보호법(FDPA, BDSG)76)은 알 권리
와 평가기관의 비밀 간에 일종의 이익형량적 접근
을 사용한다. 연방데이터보호법 제28조의b에 따르
면, 계약관계에서 개인정보는 특정한 사정(제약)
하에 미래의 특정 행위의 개연성을 산정하는 데 사
용될 수 있다.77) 이 규정은 신용평가를 포괄하는
것은 아니지만, 보험과 통신, 주택 임대차, 차량 구
매와 같은 분야에서의 계약 분야를 포괄한다. 이러
한 종류의 평가는 개인의 과거 행위에 토대를 둘 뿐
만 아니라 특정 속성을 가진 그룹에서 통계적으로
산출된 행위에 기초한 것이다. 특정 그룹에 속하게
되면 일정한 리스크 요소들이 그 그룹에 속하는 모
든 개인에게 돌아간다.78) 데이터보호청은 이러한
매커니즘의 제한사항, 무엇보다 사용된 데이터가
과학적으로 인정된 수학적·통계적 과정의 기초 위
76) 유럽 일반규칙안은 어떤 결정이 자동적으로 이뤄지는 경우 프로
파일링의 대상에 대한 권리로서 프로파일링 제한과 추가적인 권
79) (2) In the case of Section 28b, the body responsible for the
decision shall provide information to data subjects at their request
concerning
리 부여를 보장한다
.
일반규칙안 제19조.
77) 동법 제28b (Scoring)의 원문은 다음과 같다
조
.
For the purpose of deciding on the creation, execution or termi-
nation of a contractual relationship with the data subject, a proba-
bility value for certain future action by the data subject may be cal-
culated or used if
1. probability values calculated or recorded for the first time within
the six months preceding the receipt of the information re-
quest,
2. the types of data used to calculate the probability values, and
3. how probability values are calculated and their significance,
with reference to the individual case and in generally
understandable terms.
1. the data used to calculate the probability value are demon-
strably essential for calculating the probability of the action on
the basis of
procedure,
a
scientifically recognized mathematic-statistical
The first sentence shall apply accordingly if the body responsible for
the decision
2. if the probability value is calculated by a rating agency, the
conditions for transferring the data used under Section 29, and
in all other cases the conditions of lawful use of data under
Section 28 are met,
1. records the data used to calculate the probability values
without reference to specific persons but creates such
reference when calculating the probability value, or
2. uses data recorded by another body.
a
3. the probability value is not calculated solely on the basis of ad-
dress data,
If a body other than the body responsible for the decision calcu-
lates
4. if address data are used, the data subject shall be notified in
advance of the planned use of these data; this notification shall
be documented.
1. the probability value or
2. a component of the probability value,
it shall provide the body responsible for the decision with the
information necessary to answer the request as referred to in the
first and second sentences upon request
78) 이러한 평가의 위험성은 잘 알려져 있는데
은퇴 뒤에 지속적인 수업이 없다는 이유로 신용대출을 거절받았
다는 이야기에서 도드라진 바 있다
,
심지어 벤 버냉키가
.
101
경제규제와 법 제8권 제1호(통권 제15호) 2015. 5.
데이터의 기초에 대한 것을 포괄한다. 그러나 그 권
리는 평가의 요소나 평가척도의 비중, 또는 특정 그
룹이나 군에 적용되는 데이터의 속성에 관한 것을
포괄하는 것은 아니다. 의심할 나위없이 그것이 취
해질 결정에 핵심적인 중요성이 있다고 해도 말이
다. 만약 기초 데이터가 정확하기만 하면 평가 가치
를 변경하게 하는 권리는 없다.81) 의회의 입법의도
는 명백히 데이터를 비용으로 삼아 투명성과 거래
비밀 간에 이익형량을 한 것이다. 만약 평가 결과를
사용하여 자동적으로 최종 결정이 내려진다면 조금
더 상황이 낫다. 이와 같은 사례에서는 데이터 주체
의 정보권이 연방정보보호법 제6조의a 제3항에 따
라 자동화된 개인정보처리에 포함된 로직(logic)에
도 미친다.
최초에는 이것이 국가에 대하여 형성된다. 경제적
자유, 특히 재산권에 있어서 이것은 자유로운 사고
의 기초이다. 오해를 피하기 위해 말하자면, 이것은
이기적이고, 반사회적인 개인을 복제한 개념이 아
니고 자기결정과 자기조직의 전제조건이며 그 점에
서 경제적 자유에 한정되지 않는, 모든 자유권의 원
천이다. 정보의 자기결정권에서 그것은 개인으로
하여금 인격을 발현하도록 하고 변화하는 사회환경
에 인격을 적응하도록 하는 한에서 권리의 기초가
되는 원천이다. 사회적 질서는 변화하는 환경에서
변화하는 사회적 기대의 성공적 통합에 의존한다.
개인의 정체성 형성에 관한 이러한 역설적인 기대
의 형식은 사회 속에서 반응하는 개인으로서 행위
하고 사회에 기여하기 위해 능력을 발휘하는 전제
조건이다.84) 그러므로 지식의 비대칭적인 분배는
자유의 전제조건으로 보일 수 있다.85) 만약 빅데이
터 기술이 이러한 비대칭구조를 파괴하거나 위협한
다면, 개인의 권리에서 뿐만 아니라 사회 전체로부
터 볼 때에도 법적인 차단장치가 필요하다.
이것이 단지 권리와 관련 이익 간의 형량에 지나
지 않는 것인지 하는 질문은 열린 질문이다. 그러나
이러한 유형의 지식 생산 도구가 개인의 권리에 강
력한 영향력을 행사하면서 개인의 등 뒤에서 어떤
일을 벌이고 있는 하나의 예가 된다는 점은 언급할
가치가 있을 것이다. 이러한 종류의 도구 사용에서
그 전제조건 또한 데이터보호청에 의해 통제될 수
있을 때 이러한 작업에 대한 정보를 종종 전달받지
못하는 개인의 권리가 객관적 통제의 형식으로 보
완적으로 보호될 수 있다.82)
여기서 논의될 필요가 있는 두 종류의 문제가 있
다. 헌법적 권리의 맥락에서 언급된 것처럼 이 문제
는 자기결정, 개인 사이의 조화 및 혁신의 원천으로
서 지식이 비집중화되어야 한다는 전제에서 논의된
다.86) 빅데이터에 관한 중심적 질문 중의 하나는
이러한 전제가 적어도 개인정보와 관련된 점에 있
어서는 빅데이터 기술에 의해 무효화되었는지 하는
것이다.
2. 자유와 지식의 분배
지식과 그것의 분배라는 관점에서 기본권의 토
대를 바라볼 때 우리는 지식이 비대칭적으로 분배
된다는 가정에서 시작할 수도 있다. 개인에게 우호
적인 방식으로 비대칭적인 지식의 분배가 이뤄지면
이는 자유와 자기결정 뿐만 아니라 사회 내 자치조
직의 중요한 원천인 것으로 보일 수 있다.83) 물론
프로파일링은 그 문제를 적어도 어느 정도까지
는 해명할 수 있는 하나의 예다. 앞서 본 바와 같이
84) Trute, Verfassungsrechtliche Grundlagen (각주 62), 157면 이하 참조
.
85) 이러한 의미에서 그리고 오직 이러한 의미에서만!) 연방헌법재판
(
소가 인구조사결정에서 언급한바는 설득력이 있다: “이것은 그러
한 개인들의 개인적 발전가능성을 제약할 뿐만 아니라 자기결정
이 국민의 행동과 참여에 바탕을 둔 자유로운 민주사회의 기능에
필수적인 전제조건가 된다는 점에서 공공선에 해롭다.” BVerfGE
80) BGHZ 200, 38면 이하
81) BGH, Urt. v. 22. Februar 2011
recital 8 이하
82) Hildebrandt, Slaves (각주 52), 9면 이하
83) 이러한 관점의 이론적 정교화에 대해서는 Ladeur, Der Staat
gegen die Gesellschaft, 2006 참조
.
65, 1, 43; Moerel, Big Data Protection (각주 4), 9면은
구인가 당신은 무엇을 원하는가를 이야기하며 자기결정 전환
의 위험에 대해서 논의한다
86) 이러한 주장의 이론적 정교화에 대해서는
gegen die Gesellschaft 각주 84) 참조 빅데이터의 관점에서는
Simanowski, Data Love (각주 20), 76면 이하
‘당신은 누
–
VI ZR 120/10, VersR 2011, 632
’
와
‘
’
.
.
.
,
Ladeur, Der Staat
(
.
.
.
102
김태호(역) - 빅데이터와 알고리즘 : 독일 관점에서의 예비적 고찰
개인은 더 이상 개인으로서가 아니라 위험 계급군
의 구성원(지난주에 우리가 알게 된 벤 버냉키는
실업자이다)이고, 당신은 알고리즘을 바꿀 수 없기
때문에 이것을 완전히 무효화할 수는 없다. 빅데이
터 기술을 통한 지식 생산은 패턴을 감지하고, 만약
당신이 그 패턴의 기준에 부합한다면 당신은 그 패
턴의 부분이다.87) 물론 이것은 (당신과 다른 사람
들에 대해) 이야기되는 그 밖의 부분들, 그리고 당
신이 누구인지에 대해 당신이 주장하고 싶어하는
것을 완전히 옆으로 밀쳐내는, 통계적인 지식에 불
과한 것이다. 그로 인해 당신의 모든 비밀들이 공개
되거나 또는 그와 같은 것들이 개인의 프라이버시
의 일부로서 주장된다는 것이 아니다. 물론 이것이
그러한 경우일 수도 있지만 말이다. 확실한 것은,
개인으로서 당신에 관해 모여진 지식은 당신과 관
련된 디지털화된 흔적과 사회에서 한 개인으로서
당신에 대해 뭔가 이야기할 것을 주장하는 수많은
다른 사람들의 기초 위에서 생성되는 것처럼 보인
다는 것이다. 그리고 일부 낙관론자들은 어떤 아이
러니 없이 당신의 미래 행동, 선호, 희망, 꿈에 대해
당신이 당신 자신에 대해 알고 있는 것보다 더 많은
것을 알 수 있다고 주장하는 것처럼 보인다. 이것은
자기결정과 정체성에 관한 당신의 선택권한을 드라
마틱하게 줄이는 것이다. 이러한 지식이 당신을 대
표하든 아니든, 그것이 사실이든 아니든, 당신이 그
렇게 대해지지 않는다면 이것은 의미가 없다. 그것
은 수학적 특성으로 인해서 사라질 이러한 유형의
지식에 있어서 구성주의적인 기초를 이룬다. 조건
의 형식은 당신의 실제가 된다. 토마스 이론이 주장
하는 바와 같이, 만약 어떤 상황을 실제로 규정한다
면 그것은 그 결과에 있어서 실제이다. 물론 프로파
일링에 대한 몇 가지 요구조건들, 가령 자동적으로
결정이 이루어지는 것을 피하면서 당신에게 인간에
의한 평가88)를 받을 권리를 제공하려 해 볼 수도
있겠지만, 이러한 시도는 문제 해결에 대한 반응으
로서 불충분하다. 그리고 알고리즘이 실패하거나
쓰레기를 산출한다는 이유만으로 인간의 평가를 강
조하는 것은 아니다. 그것은 또한 어떤 규범이 그것
의 적용에 있어서 추가적인 척도, 상황에 비춘 해
석, 비례감각과 합리성을 필요로 하는 것은 피할 수
없다는 점을 지적한다. 이것을 ‘알고리즘 결정’에
의해 대체하게 되면 마치 산출된 지식이 객관적 실
제를 반영하는 것처럼 되어 이 모든 것이 옆으로 밀
려나게 될 것이다.
두 가지의 부가적 결과에 대해서 언급할 가치가
있겠다. 하나는 자동적으로 생성된 지식은 중간치
의 지식을 대변하는 경향이 있다. 통계적으로 당신
은 한 집단에 속한 수백만의 사람 중 어떤 이를 대
변한다. 이것이 진실인지 아닌지는 문제가 되지 않
는다. 그것은 당신이 취급해야 하는 하나의 사실일
뿐이고 이러한 평균으로부터의 편차가 줄어들 기회
는 많다. 이것을 축하할 수도 있지만 그것은 궁극적
으로 열린 사회의 역동성을 줄이게 된다.
두 번째 측면은 당신이 다른 사람들이 상정한 지
식에 맞춰서 행동할 것이라는 점이다. 그런 차원에
서 연방헌법재판소는 인구조사 결정 및 이를 따른
여러 결정에서 데이터 수집의 차원에서 자기결정권
의 기본적 구조를 간직하며 다음과 같은 논증을 펼
친다: “개인이 그들이 생활하는 사회적 영역의 특정
부분에서 그들에 대한 어떤 정보가 알려지도록 할
것인지를 충분히 명확하게 결정할 수 없고 특정한
조치를 함에 있어서 대화가능한 상대방이 갖고 있
는 지식의 정도를 알 수 없다면, 자기결정의 개인적
힘에 따라 계획하고 결정하는 개인의 자유가 심각
하게 억제될 수 있다. 개인이 더 이상 누가 그들에
대해서 무엇을 그리고 언제 아는지를 확인할 수 없
는 사회 질서와 이것을 가능하게 하는 법적 질서는
정보적 자기결정권과 양립할 수 없다. 일상적이지
않은 행동이 항상 기록되고 그 정보가 영원히 저장
되며, 그것이 사용되거나 다른 사람에게 전달되지
않을 것인지에 대해 확신을 갖지 못하는 사람은 그
런 행동을 통해 돌출적으로 행동하는 것을 피하려
고 할 것이다.”89) 물론 몇 가지 중요한 차이가 있
다. 무엇보다 우리는 우선 사적 주체에 대해 이야기
87) Moerel, Big Data Protection (각주 4), 11
88) 일반규칙안 제20조 제
면.
5
항.
103
경제규제와 법 제8권 제1호(통권 제15호) 2015. 5.
하고 있다. 나아가 개인들이 데이터 수집 관행의 정
도에 대해서 모르고 있을 필요는 없지만, 그들이 자
신의 흔적이 추적될 것이라는 사실에 대해서 확실
히 알고 있더라도, 아웃사이더로 취급되지는 않을
뿐 선택과 기회의 공간이 좁혀지는 결과는 마찬가
지이다. 이것은, 의심할 바 없이, 하나의 가능한 선
택지이다. 개방성, 유연성, 혁신에 기초한, 새롭고
혁신적인 것을 창출하는 개인의 자유를 이용하는
사회는 이러한 중심적인 원리들이 제한되거나 훼손
되지 않도록보장해야 한다. 이것은 그러한 제한을
피하고 다양성을 보장하는 근대 국가가 가져야 할
임무로서 이해될 수 있다. 이것은 자유주의 국가의
핵심이며 그 내용은 원리적으로 새로운 것은 없는
이야기다. 그것은 단지 디지털화된 세계에서 겉모
습만을 바꾼 것일 수 있다.
투명하지 않은 상태에서 다양한 정보에 선택적으로
노출되게 함으로써 필터링은 일종의 정보적 비대칭
의 원인이 된다. 이것은 상품, 서비스 뿐만 아니라
어떤 종류의 정보, 정치에 관련한 정보에 있어서도
사실이다. 많은 사람들이 그들의 주된 정보원으로
서 필터링 도구를 통한 서비스를 이용할 때 사람들
과 전체로서의 사회는 선택적이고 조작된 실제로서
개인에게 노출될 수 있다. 우리가 어떤 단어에 대해
서 새로운 모든 것은 미디어에 의해서 새롭게 된 것
이라고 독일의 사회학자인 니콜라스 루만이 지적한
바도 그와 같다.91) 그러므로 검색 엔진에 관한 한,
우리가 검색 엔진을 그들의 정보적 능력과 잠재적
인 선별능력으로 인해서 방송의 일종, 즉 장래에 적
어도 부분적으로는 방송에 관한 규제의 틀, 특히 중
립의무와 다양성 표준에 대한 규제가 적용될 수 있
도록 기술하려고 하는 논의가 출현한 것은 놀라운
것이 아니다. 이미 매우 넓은 규제 틀의 범위는 그
렇게 되면 확실히 너무 넓은 것이 될 것이다.
3. 필터링된 개인: 버블 속에서의 행동?
타겟 광고, 타겟 추천, 개인화된 검색 결과 제공
등의 목적에서 고객에 맞춰진 서비스를 제공하기
위해 인간의 행동을 관찰하는 가능성을 인정한 결
과로서 종종 주장되는 바는, 개인이 가진 행동의 개
인사와 그 개인이 속한 동료 그룹 또는 사회적 집단
의 역사에서 그들(과 그 집단 속의 다른 구성원들)
어쨌든 흥미로운 질문은 어떤 효과가 관찰되고
있는가이다. 우리 모두가 그런 빅데이터 전략으로
인한 정보의 피해자가 되고 말 것이라는 것은 진실
인가?92) 몇 가지 의심들을 이야기해 보겠다. 이용
자들은 지능형 정보전략으로 인해 다소간 의도하지
않은 피해자가 되어 있다고들 한다. 이러한 관념은,
사람들에 대한 미디어의 영향에 관한 수십 가지 미
디어 연구의 결과를 부정하는 것이어서 흥미롭다.
일종의 정보결정주의도 이러한 주장의 일부를 이룬
다. 두 번째로, 정보는 고정된 말의 뭉치가 아니다.
그것은 복수의 기준에 따라 또는 중립적 방법으로
분배될 수도 있다. 필터링은 일종의 이러한 종류의
지식 생산이다. 선별에 있어서도 마찬가지이다. 세
번째, 사람들은 정보를 하나의 출발점으로서 사용
하고, 그 결과를 다른 정보 등을 발견하기 위해서
사용한다. 이러한 정보는 전통적인 (인쇄 매체와 같
이 선호를 표현한 것만이 대변된다는 것이다.90)
원
칙적으로 이러한 일은 우리가 위에서 살펴본 일련
의 주장의 연속선상에서 이루어진다. 이것은 개인
자신의 행위가 일종의 자기충족적 선호의 기록이
되게 이끌 것이다. 그 결과는 개인에게 경험과 정보
의 공간을 좁히는 것이 된다: 놀라운 일도 없고, 혁
신도 없으며, 오직 순응만이 있다. 그것이 일부 사
람들이 두려워하는 바다. 어떤 도구들은 의심할 바
없이 그와 같이 움직인다. 북스토어와 스트리밍 서
비스, 그리고 부분적으로는 검색 엔진의 추천이 그
러하다. 그것들은 모두 미리 상정된 관심, 집단, 관
계망, 로그인 효과 등을 따라 걸러진다. 이용자가
ä
91) Luhmann, Die Realit t der Massenmedien, 1996, 1
면.
ü
ä
92) Kappes, Filter Bubble? Warum die Gefahren der Bubble bersch tzt
loads/2012/06/TZD_Kappes-Christoph_- Filter-Bubble. pdf (2015. 3.
30. 방문)].
89) BVerfGE 65, 1, 43.
ü
90) Pariser, Filter Bubble. Wie wir im Netz entm ndigt werden, 2012.
104
김태호(역) - 빅데이터와 알고리즘 : 독일 관점에서의 예비적 고찰
은 아날로그 미디어, 책) 미디어, 방송 및 다양한
인터넷정보원에의해서제 공된 전체 정보의 세계
에서 자리를 잡는다. 선별하고 필터링하는 것은 피
할 수가 없다. 그리고 선별과 필터링은 오랫동안 전
통매체에서 행한 방법이기도 하다.
수도 있으며, 주어진 문제에 있어서 부분적으로만
의미가 있는 것일 수도 있다. 게다가 그것들은 알고
리즘으로 만들어져야 한다.93) 하나의 모델, 즉 변
수와 방정식의 시스템이 필요하고 이 모델에 관련
성94), 대표성, 척도 등에 관한 일련의 결정들이 담
겨져 있어야 한다. 그리고 이러한 모델은, 아주 중
대한 사건에서, 그것이 적응해야 하는 방법으로 적
용되어야 한다. 이는 학습하고, 변화하는 환경적 조
건, 목표의 미실현 등에 적응하는 기계의 모델을 의
표준(가령 굿 저널리즘의 표준)에 의해 생성된
공정한 정보에 대한 신뢰는 이러한 게임의 중요한
부분이다. 물론 빅데이터 도구로 인해서 여타의 더
세련되고 더 개인화된 선택과 필터링의 전략이 가
능하게 되고 이것은 또한 더 도전적인 빅데이터 운
용의 원천이 된다. 원칙적으로 그러한 문제를 다루
는 데는 두 가지의 방법이있다:다양한정보원의
경쟁과 다양성⋅공정성을 담보하고 도구들을 인증
하는 규제의 틀이 두 가지 해결책이다. 그러나 그와
같은 문제들에 대해 매우 다른 영역들로부터 규제
체계를 이식하기 전에, 어떤 일이 실제로 진행되고
있는지, 편향된 전략에 대한 반작용으로서의 이용
행태가 출현할 것인지에 대해 명확한 상을 갖는 것
이 중요하다. 알고리즘은 그들이 학습에 의해서 새
로운 선호를 적용할 수 있는 방법으로 고안된 것이
고, 제공자들은 새로운 상품, 서비스와 정보를 제공
하는 데 있어서 생생한 경제적 이익을 가지고 있다.
그러므로 우리가 미디어에 대해, 그리고 결국에는
모두가 정보 거인에 대해 방어없이 피해자처럼 행
동하는 결과가 일어날 것같지는 않다. 에릭 슈미트
가 주장한 모든 것이, 바라건대, 진실이 되지는 않
을 것이다. 이것이 심각한 위협이 된다면 그 때 규
제전략이 유용할 수 있다.
미한다. 무엇보다 창출된 지식은 구성적이고,95)
종
종 복잡하고, 선별적이며, 부분적이고 임시적이며
불확정적이다.96) 이것은 자동적으로 생성된 지식
에 대해 말하는 주장이 쓸모가 없다는 것도 아니고
편향(또는 선별)이 회피될 수 있다는 것도 아니다.
이것들은 항상 우리가 치러야 할 비용이다.
그러나 이러한 지식을 인증하는 것은 쉽지 않다.
평가 활동의 맥락에서 본 바와 같이, 우리가 데이터
에 접근할 수 있다면, 그 사용된 데이터를 인증할
수도 있다. 그러나 모델링, 적용, 적응은 게임의 핵
심적인 부분이고 이 도구를 발전시키고 사용하는
사람들의 전형적인 비밀사항이기 때문에 많은 것이
밝혀지지는 않는다. 그리고 블랙박스가 열린다고
해도 이것이 도움이 될런지는 확실하지 않다. 그러
므로 지식이라는 것을 평가하고 인증하기는 쉽지
않다. 이러한 지식이 주장이나 권리의 제약을 정당
화하는 데 사용된다면, 이것은 법체계에 문제점을
노출할 것으로 보인다. 법체계는, 적어도 원리적으
로는, 모든 종류의 지식이 문제화될 수 있고 정당화
될 필요가 있다는 가정 하에서 구축된다. 물론 예외
가 있고, 어떤 사건들에서는 재량의 경계나 다른 유
형의 특권이 있다. 만약 더 많은 결정이 자동적으로
이루어진다면, 지식에 대한 숨은 가정을, 심지어 사
후에, 드러내는 것은 더 문제화될 수 있다. 그리고
4. 자동 생성되는 지식의 인증
법적 시스템의 관점에서 볼 때 자동적으로 생성
된 지식은 흥미로운 유형의 지식이다. 그것은 전형
적으로 각기 다른 데이터 원천, 즉 구조화된, 半구
조화된, 또는 구조화되지 않은 데이터로부터 생성
된다. 데이터의 질도 주어진 문제의 해결에서 각기
다르다. 그것은 시기가 지난 것일 수도 있고, 선별
적이고 신뢰할 수 없는 정보원으로부터 나온 것일
93) Gillespie, The Relevance (각주 24), 2
94) Gillespie, The Relevance (각주 24), 9
사치를 위해서 200개 이상의 척도를 사용한다
95) 인식론적 차원에서 관련성 그리고 결과의 대표성을 계량할 수
없다는 것은 명백하다
96) Seaver, Knowing Algorithms (각주 24), 4
면.
면.
가령 구글은 관련성의 근
.
,
.
면.
105
경제규제와 법 제8권 제1호(통권 제15호) 2015. 5.
커튼 뒤에서 자동적으로 생성된 지식이 결정 주체
에게 선택 가능한정보를제 공하는 데 사용된다면
그것은 드러나지 않을 것이다. 회사에서 직원배치
의 최적화는 하나의 예가 될 수 있다. 법체계는 확
실히 이러한 종류의 문제를 취급할 준비가 되어 있
지 않다. 어떤 사안에서 입증 부담을 전환하는 것은
도움이 될 수 있지만, 다른 사안에서는 사용된 절차
또는 기술의 인증이 해결책이 될 수 있을 것이다.
적어도 독일에서 그러한 토론은 아직 시작되지 않
았다.
<참고문헌>
Amatriain, Xavier/Basilica, Justin: Netflix
Recommendations: Beyond the 5 stars
(Part 1, 2), The Netflix Tech Blog,
04/netflix-recommendations-beyond
com/2012/06/netflix-recommendations
-beyond-5-stars.html <03/30/15>).
Anderson, Chris: The End of Theory, Wired,
Vol. 16 No. 7, 2008.
Boyd, Danah/Crawford, Kate: Critical Questions
for Big Data, Information, Communication
& Society (5) 4, 2012, pp. 662 ff.
Cavoukian, Ann/Castro, Daniel: Big Data and
Innovation, Setting the Record Straight:
De-identification Does Work, 2014
(http://www2.itif.org/2014-big-da-
ta-deidentification.pdf <03/30/15>).
Cormen, Thomas H./Stein, Clifford/Leierson,
Charles E./Rivest, Robert L.: Introduction
to Algorithms, 2009.
Ⅳ
. 결 론
빅데이터는 새로운 지식을 생성하는 수단으로
바라보는 것이 최선이겠다. 민주적이고 열린 사회
에서 새로운 지식의 생성은 환영되고 다양한 법적
보장을 통해 뒷받침된다. 새로운 형식(기술)으로서
빅데이터는 대단한 장래성과 함께 두려움을 수반
한다. 이러한 기대가 실현될 것인지는 당분간 불확
실한 상황으로 남아있게 될 것이다. 그러나 앞서
본 바와 같이, 이러한 사회적 활동은 몇 가지 중요
한 제도의 구성, 가령 데이터 보호나 여타 기본적
인 관념의 접근에 있어서 의문을 제기하게 하는 잠
재성을 갖고 있다. 그런 점에서 규제의 시도는 피
할 수 없는 것처럼 보인다. 다양한 대답이 가능할
것처럼 보인다. 그러나 현재로서 이 기술의 잠재성
은 불확실하고 그로부터 수반되는 장래성과 위협
은 모두 과장되어 있다. 규제적 노력의 출발점으로
서 발생 가능한 위협에 주목하여 규제를 옹호하기
전에 빅데이터의 발전을 관찰하는 것이 나을 것으
로 보인다. 오히려 이처럼 새로운 형식으로 자동
생성된 지식이 사회에 정착할 것으로 기대할 만한
논거들이 있다. 법적 프레임은 새로 떠오르거나 기
존에 존재하던 문제에 적응해 나가면서 동시에 새
로운 지식의 체계를 만들어 가게 것이다.
Crawford, Kate: The Hidden Biases in Big
Data, Harvard Business Review, 2013
den-biases-in-big-data <03/30/15>).
Daston, Lorraine: Baconsche Tatsachen,
Rechtsgeschichte 1, 2002, pp. 38 ff.
Deutsche Bank: Big Data - die ungezähmte
Macht, 2014 , (https://www.dbresearch.
de/PROD/ DBR_INTERNET_DE-PROD/
PROD0000000000328652/Big+Data+-
+die+ungezähmte+Macht.pdf <03/30/
15>).
Executive Office of the President: Big Data,
Seizing Opportunities
-
Preserving
Values, 2014 (http://www.whitehouse.
106
김태호(역) - 빅데이터와 알고리즘 : 독일 관점에서의 예비적 고찰
gov/sites/default/files/docs/big_da-
ta_privacy_report_may_1_2014.pdf
<03/30/15>).
Bubble.pdf <03/30/15>).
Kruse, Rudolf/Borgelt, Christian/Klawonn,
Frank/Moewes, Christian/Ruß, Georg/
Steinbrecher, Matthias: Computational
Intelligence, 2011.
Foucault, Michel: Überwachen und Strafen,
1977.
Gartner IT Glossary: Big data (http://www.gar
tner.com/it-glossary/big-data <03/30/
15>).
Ladeur, Karl-Heinz: Der Staat gegen die
Gesellschaft, 2006.
Luhmann,
Niklas:
Die
Realität
der
Gillespie, Tarleton: The Relevance of
Algorithms, 2012 (http://www.tarleton
gillespie.org/essays/Gillespie%20-%20
The%20Relevance%20of%20Algorithms
.pdf <03/30/15>).
Massenmedien, 1996.
Mainzer, Klaus: Die Berechnung der Welt. Von
der Weltformel zu Big Data, 2014.
Mayer-Schönberger, Viktor/Cukier, Kenneth:
Big Data. Die Revolution, die unser
Leben verändern wird, 2013.
Heuer, Steffan: Kleine Daten, große Wirkung.
Big Data einfach auf den Punkt
gebracht. Landesanstalt für Medien
Moerel, Lokke: Big Data Protection. How to
Make the Draft EU Regulation on Data
Nordrhein-Westfalen (LfM),
2013
Protection
Future
Proof,
2014
(https://www.lfm-nrw.de/fileadmin/lfm
-nrw/nrw_digital/Publikationen/DK_Big
_Data.pdf <03/30/15>).
(http://www.debrauw.com/wp-content/
uploads/NEWS%20-%20PUBLICATIO
NS/Moerel_oratie.pdf <03/30/15>).
Morgenroth, Markus: Sie kennen Dich! Sie
haben Dich! Sie steuern Dich!, 2014.
Pariser, Eli: Filter Bubble. Wie wir im Netz
entmündigt werden, 2012.
Hildebrandt, Mireille: Slaves to Big Data, Or are
We?, 2013, (http://works.bepress.com/
cgi/viewcontent.cgi?article=1068&conte
xt=mireille_hildebrandt <03/30/15>).
Hofstädter, Yvonne: Sie wissen alles: Wie in-
telligente Maschinen in unser Leben
eindringen und warum wir für unsere
Freiheit kämpfen müssen, 2014.
Pasquale, Frank: The Black Box Society,
2015.
OECD Working Party on Privacy and Security
in the Digital Economy: Summary of
the OECD Privacy Expert Roundtable,
20. May 2014 (http://www.oecd.org/
officialdocuments/publicdisplaydocumen
tpdf/?cote=dsti/iccp/reg(2014)3&docla
nguage=en <03/30/15>).
Information Commissioner’s Office (ICO): Big
Data and Data Protection, 2014
ons/documents/1541/big-data-and-
data-protection.pdf <03/30/15>).
Kappes, Christoph: Filter Bubble? Warum die
Gefahren der Bubble überschätzt
de/wp-content/uploads/downloads/201
2/06/TZD_Kappes-Christoph_-Filter-
O’Neil, Cathy/Schutt, Rachel : Doing Data
Science. Straight Talk from the
Frontline, 2014.
Räsänen, Minna/Nyce, James M.: The Raw is
cooked: Data in Intelligence Practice,
107
경제규제와 법 제8권 제1호(통권 제15호) 2015. 5.
Science, Technology & Human Values,
38 (5), 665 ff.
Tene, Omer/Polonetsky, Jules: Big data for
All; Privacy and User Control in the
Age of Big Data Analytics, 11
Northwestern Journal of Technology
and Intellectual Property 2013, pp. 239
western.edu/njtip/vol11/iss5/1 <03/30/15>).
Trute, Hans-Heinrich: Verfassungsrechtliche
Grundlagen, in: Roßnagel (ed.),
Handbuch des Datenschutzrechts, 2003,
pp. 157 ff.
Reichert, Ramón: Big Data. Analysen zum
digitalen Wandel von Wissen, Macht
und Ökonomie, 2014.
Rheinberger, Hans-Jörg: Wie werden aus
Spuren Daten und wie verhalten sich
Daten zu Fakten?, in: Nach Feierabend.
Zürcher Jahrbuch für Wissensge-
schichte 3, 2007, pp. 117 ff.
Rosenberg, Daniel: Data before the Fact, in:
Gitelman (ed.), „Raw Data“ is an
Oxymoron, 2013, pp. 16 ff.
Van Otterlo, Martijn: A machine learning view
on profiling, in: Hildebrandt/de Vries
(ed.) Privacy, Due Process and the
Computational Turn - The philosophy
of law meets the philosophy of
technology, 2013, pp. 41 ff.
Rubinstein, Ira: Big data. The end of privacy
or a new beginning?, International Data
Privacy Law 25, 2013, pp. 1 ff.
early/2013/01/24/idpl.ips036.full.pdf+
html<03/30/15>).
Voß, Jakob: Was sind eigentlich Daten?,
Library Ideas #23 (www.libreas.eu
<03/30/15>).
Schneider,
Michael:
Transparenztraum.
Literatur, Medien und das Unmögliche,
2013.
Walther, Marcel/Burger, Marleen/Kindling,
Maxi/Liebenau, Lisa/Lienhard, Claudia
/Lilienthal, Svantje/Plewka, Paulina et
al.: Forschungsdatenmanagement an
Hochschulen -Internationaler Überblick
und Aspekte eines Konzepts für die
Humboldt-Universität zu Berlin, 2013.
Weichert, Thilo: Big Data–eine Herausforderung
für den Datenschutz, in: Gieselberger/
Moorstedt (ed.), Big Data - Das neue
Versprechen der Allwissenheit, 2013,
pp. 131 ff.
Seaver, Knick: Knowing Algorithms, Media in
Transition 8, 2013 (citing here the online
MiT8.pdf%20 <03/30/15>).
Simanowski, Roberto: Data Love, 2014.
Souza,
Robert/Trollinger,
Rob/Kaestner,
Cornelius/Potere, David/Jamrich, Jan:
How to get started with big data. BCG
perspectives, The Boston Consulting
Group, 2013 (https://www.bcgperspec
tives.com/content/articles/it_strategy_
retail_how_to_get_started_with_big_data
/ <03/30/15>).
World Economic Forum: Unlocking the Value
of Personal Data: From Collection to
Usage, World Economic Forum, 2013
(http://www3.weforum.org/docs/WEF_
IT_UnlockingValuePersonalData_Collect
ionUsage_Report_2013.pdf<03/30/15>).
Szalay, Alex: Interview (http://www1.wdr.de/
themen/wissen/sp_nsa/bigdata_wissens
chaft100.html <03/30/15>).
108
'신학 자료 > 추천 신학 논문' 카테고리의 다른 글
청소년(초등학교~고등학교) 사역 핵심에 관한 논문 (0) | 2024.04.14 |
---|---|
칼빈의 『제네바 시편가』 연구 - A study on Calvin's Genevan psalter[분석 논문] (1) | 2024.03.28 |
신앙생활의 상향 평준화 방법1 - 교리 교육의 필요성에 대해 (0) | 2024.01.16 |