[Economist] 데이터 홍수 (The data deluge)

데이터 홍수


Feb 25th 2010 |
From The Economist print edition


산업, 정부, 사회가 이제 막 그 엄청난 잠재력을 이용하기 시작했다



18개월 전, Li & Fung이라는 소매상을 위한 유통 체인을 관리하는 한 회사는 그들의 네트워크를 통해서 하루에 100기가 바이트의 정보가 흘러가는 것을 보았다. 이제, 그 양은 10배가 늘었다. 2009년 동안 미국의 무인 항공기는 이라크와 아프가니스탄 등지를 비행하며 24년의 길이에 해당하는 비디오 화면을 전송했다. 올해 배치될 새 모델은 과거의 기종에 비해서 10배에 달하는 실시간 데이터를 전송할 것이고, 2011년에는 30배로 늘어날 것이다.


당신이 어디를 보든, 전 세계에서 정보의 양은 증가하고 있다. 한 측정에 따르면 인류는 2005년 150 엑사바이트 (백만기가바이트)의 데이터를 생성했다. 올해, 1,200 엑사 바이트를 생성할 것이다. 단순히 이 정보의 홍수를 쫓아가는 것과 유용해 보이는 것을 저장하는 것 조차 어려워졌다. 이들을 분석하고, 패턴을 찾아내고, 유용한 정보를 추출해 내는 것은 더욱 어렵다. 그럼에도, 이 데이터의 홍수는 벌써 산업, 정부, 과학 그리고 일상 생활을 변화시키기 시작했다. 이는 소비자, 기업 그리고 정부가 언제 데이터의 흐름을 규제하고, 언제 촉진 시킬지에 대한 올바른 판단을 하는 한 호혜적인 커다란 잠재력을 가지고 있다.

쓰레기 더미에서 다이아몬드를 뽑아내기


몇몇 산업이 데이터를 수집하고 활용하는 능력을 기르는데 앞장서고 있다. 신용카드 회사들은 모든 상거래를 살펴보고 수십 억 개의 거래에서 뽑아낸 몇 규칙들을 적용하여 사기성 거래가 무엇인지 높은 정확도로 구별해 낸다. 예를 들어 거래를 감추기 쉽기 때문에 도난 된 신용카드는 와인보다는 위스키를 사는데 많이 사용된다. 보험회사들도 단서들을 조합하여 의심스러운 지불 요청 찾아내는데 능하다. 사기성 지불 요구는 화요일보다는 월요일에 많이 발생하는데, 왜냐하면 사고를 꾸며내는 보험계약자들은 주말 동안 가짜 목격자 역할을 할 친구들을 포섭하는 경향이 있기 때문이다. 이러한 많은 규칙들을 적용하여 어떤 카드가 도난 된 것일 가능성이 크고, 어떤 지불 요구가 의심스러운지 알아낼 수 있다.


한편, 이동 통신사들도 가입자들의 전화 이용 행태를 분석하여, 예들 들면 그들이 가장 자주 연락하는 상대가 경쟁사의 가입자인지 등을 알아낼 수 있다. 만약 경쟁사가 그 가입자를 끌어가기 위한 좋은 조건의 프로모션을 진행한다면, 이들을 붙잡아 두기 위한 다른 인센티브를 제시할 수도 있다. 오래된 산업들도 최근에는 요즘 등장하는 산업들처럼 열성적으로 데이터를 이용하고 있다. 오프라인과 온라인 상점들은 데이터 마이닝의 대가들이다. (혹은 “비지니스 인텔리젼스” 현재 알려진 것 처럼) 장바구니 정보를 분석하여 슈퍼마켓들은 딱 맞는 프로모션을 특정 고객의 입맛에 맞게 제공할 수 있다. 석유 산업에서는 시추 전에 슈퍼 컴퓨터를 사용하여 지진 발생 데이터를 철저하게 분석한다. 그리고 천문학자들은 별들을 향한 망원경 처럼 소프트웨어 질의 도구를 디지털로 된 천체 측량에 이용한다.


아직도 갈 길은 멀다. 몇 년의 노력에도 불구하고, 법의 집행과 정보 기관의 데이터베이스는 대체로 연결되어있지 않다. 의료 보험에서, 의료 기록의 디지털화는 치료 경향을 발견하고 감시하고, 다른 치료법들의 효과를 평가는 것을 훨씬 쉽게 만들어 줄 수 있다. 하지만 의료 기록들을 전산화 하려는 폭넓은 노력들은 관료적이고, 기술적이며 또한 윤리적인 문제에 봉착하는 경향이 있다. 온라인 광고는 이미 오프라인 광고보다 훨씬 더 정확하게 타켓팅 되고 있지만 더 개인화되어 나아갈 수 있는 여지가 있다.


이것이 현실화 되면 광고주들을 돈을 더 지불한 용의가 있을 것이며, 결국 이러한 광고를 받아들일 준비가 된 소비자들은 더 풍부하고 넓은 범위의 무료 온라인 서비스를 제공 받을 수 있음을 의미한다. 그리고 정부는 뒤늦게 범죄자, 지도, 공공 서비스 실행에 대한 정부 계약의 세부 사항 및 통계 등 더 많은 정보를 대중에게 공개하려는 계획에 착수했다. 사람들은 이러한 정보를 새로운 방법으로 재활용하여 사업을 시작하던지, 혹은 민선 공무원에게 책임을 물을 수 있을 것이다. 이러한 새로운 기회를 잡은 기업이나 혹은 다른 이들이 그럴 수 있게 도구를 제공한 기업은 번창할 것이다. “Business Intelligence”는 소프트웨어 산업에서 가장 빠르게 성장하는 분야 중 하나이다. 

좋지 않은 소식들


하지만 데이터의 홍수도 몇몇 위험을 야기한다. 예로 가득 찬 데이터베이스가 도난 당한다면, 사회 보장 연금 정보로 가득 찬 디스크들이 사라질 수도 있고, 세금 정보를 저장해 놓은 랩탑을 택시에 두고 내릴 수도 있고, 신용카드 정보가 온라인 소매상에서 유출 될 수도 있다. 결과는 개인 정보의 침해, 도용, 그리고 사기이다. 개인 정보 위반은 이러한 범법 행위가 없어도 가능하다. 페이스북이나 구글이 예상치 않게 그들의 온라인 소셜 네트워크의 개인 정보 설정을 변경하고 이는 자신도 모르게 개인 정보 공개를 초래한다. 더욱 해로운 위협이 다양한 종류의 “Big Brother”화 된 것들, 특별히 정부가 기업들에게 그들의 고객정보를 넘겨달라고 강요 할 때 등에 의해 초래된다. 자신의 개인 정보를 소유하고 관리하는 것 대신에, 사람들은 그 정보에 대한 통제권을 잃어버린다.


이러한 데이터 홍수의 단점들에 대처하는 가장 좋은 방법은 역설적으로 다양한 분야에서 더 투명성을 가지기를 요구해서 더 많은 데이터를 올바른 방법으로 공개하는 것이다. 첫 째, 사용자들에게는 그들에 대한 정보를 더 잘 접근하고 누구와 공유할 것인지 설정할 지가 포함된, 관리할 수 있는 권한이 주어져야 한다. 예를 들어 구글은 이용자들에게 구글이 이용자들의 어떤 정보를 가지고 있는지 볼 수 있게 하고, 그들의 검색기록을 삭제할 수 있으며, 광고의 대상을 수정할 수 있게 한다. 둘째로, 세계의 몇몇 지역에서는 이미 현실화 되었지만 기관에게는 관리자들이 정보 보안을 더 심각하게 생각할 수 있도록 보안 결함들의 세부 사항을 공개하는 것이 요구된다. 세 번째로, 기관들은 연례 보안 감사의 대상이 되어야 하며 결과 등급은 대중에게 공개 되어야 한다. (비록 공개된 문제의 세부 사항들까지는 아니더라도) 이는 기업들에게 그들의 보안을 최신으로 유지하게 하는 동기부여가 될 수 있다.


데이터를 잘 관리하는 기업이 아닌 기업에 비해서 선호되는 환경에서 이는 구매 충동에 본격적으로 영향을 미칠 것이다. 이 세 분야에서의 뛰어난 투명성은 보안을 증대시키고, 혁신을 억누르는 복잡한 규제가 필요 없이도 사람들에게 더 많은 그들의 데이터에 대한 권한을 줄 것이다. 결국, 데이터 홍수에 대처하는 배움의 과정이, 그리고 어떻게 그것을 이용할 수 있을지 알아내는 과정이, 이제 막 시작되었다.


영어 원문


[#M_ more.. | less.. | 

The data deluge


Businesses, governments and society are only starting to tap its vast potential


Feb 25th 2010 | From The Economist print edition



EIGHTEEN months ago, Li & Fung, a firm that manages supply chains for retailers, saw 100 gigabytes of information flow through its network each day. Now the amount has increased tenfold. During 2009, American drone aircraft flying over Iraq and Afghanistan sent back around 24 years’ worth of video footage. New models being deployed this year will produce ten times as many data streams as their predecessors, and those in 2011 will produce 30 times as many.


Everywhere you look, the quantity of information in the world is soaring. According to one estimate, mankind created 150 exabytes (billion gigabytes) of data in 2005. This year, it will create 1,200 exabytes. Merely keeping up with this flood, and storing the bits that might be useful, is difficult enough. Analysing it, to spot patterns and extract useful information, is harder still. Even so, the data deluge is already starting to transform business, government, science and everyday life (see our special report in this issue). It has great potential for good—as long as consumers, companies and governments make the right choices about when to restrict the flow of data, and when to encourage it.


Plucking the diamond from the waste


A few industries have led the way in their ability to gather and exploit data. Credit-card companies monitor every purchase and can identify fraudulent ones with a high degree of accuracy, using rules derived by crunching through billions of transactions. Stolen credit cards are more likely to be used to buy hard liquor than wine, for example, because it is easier to fence. Insurance firms are also good at combining clues to spot suspicious claims: fraudulent claims are more likely to be made on a Monday than a Tuesday, since policyholders who stage accidents tend to assemble friends as false witnesses over the weekend. By combining many such rules, it is possible to work out which cards are likeliest to have been stolen, and which claims are dodgy.


Mobile-phone operators, meanwhile, analyse subscribers’ calling patterns to determine, for example, whether most of their frequent contacts are on a rival network. If that rival network is offering an attractive promotion that might cause the subscriber to defect, he or she can then be offered an incentive to stay. Older industries crunch data with just as much enthusiasm as new ones these days. Retailers, offline as well as online, are masters of data mining (or “business intelligence”, as it is now known). By analysing “basket data”, supermarkets can tailor promotions to particular customers’ preferences. The oil industry uses supercomputers to trawl seismic data before drilling wells. And astronomers are just as likely to point a software query-tool at a digital sky survey as to point a telescope at the stars.


There’s much further to go. Despite years of effort, law-enforcement and intelligence agencies’ databases are not, by and large, linked. In health care, the digitisation of records would make it much easier to spot and monitor health trends and evaluate the effectiveness of different treatments. But large-scale efforts to computerise health records tend to run into bureaucratic, technical and ethical problems. Online advertising is already far more accurately targeted than the offline sort, but there is scope for even greater personalisation.


Advertisers would then be willing to pay more, which would in turn mean that consumers prepared to opt into such things could be offered a richer and broader range of free online services. And governments are belatedly coming around to the idea of putting more information—such as crime figures, maps, details of government contracts or statistics about the performance of public services—into the public domain. People can then reuse this information in novel ways to build businesses and hold elected officials to account. Companies that grasp these new opportunities, or provide the tools for others to do so, will prosper. Business intelligence is one of the fastest-growing parts of the software industry.


Now for the bad news


But the data deluge also poses risks. Examples abound of databases being stolen: disks full of social-security data go missing, laptops loaded with tax records are left in taxis, credit-card numbers are stolen from online retailers. The result is privacy breaches, identity theft and fraud. Privacy infringements are also possible even without such foul play: witness the periodic fusses when Facebook or Google unexpectedly change the privacy settings on their online social networks, causing members to reveal personal information unwittingly. A more sinister threat comes from Big Brotherishness of various kinds, particularly when governments compel companies to hand over personal information about their customers. Rather than owning and controlling their own personal data, people very often find that they have lost control of it.


The best way to deal with these drawbacks of the data deluge is, paradoxically, to make more data available in the right way, by requiring greater transparency in several areas. First, users should be given greater access to and control over the information held about them, including whom it is shared with. Google allows users to see what information it holds about them, and lets them delete their search histories or modify the targeting of advertising, for example. Second, organisations should be required to disclose details of security breaches, as is already the case in some parts of the world, to encourage bosses to take information security more seriously. Third, organisations should be subject to an annual security audit, with the resulting grade made public (though details of any problems exposed would not be). This would encourage companies to keep their security measures up to date.


Market incentives will then come into play as organisations that manage data well are favoured over those that do not. Greater transparency in these three areas would improve security and give people more control over their data without the need for intricate regulation that could stifle innovation. After all, the process of learning to cope with the data deluge, and working out how best to tap it, has only just begun.


_M#]

[Economist] 데이터, 사방의 데이터 (Data, Data everywhere)

데이터, 사방의 데이터


Feb 25th 2010 |
From The Economist print edition


정보가 희박한 상태에서 넘쳐나도록 바뀌었다. 이것이 Kenneth Cukier의 말처럼 많은 이점을 가져다 주었지만, 또한 골칫거리 이기도 하다.


 


슬로운 디지털 스카이 서베이가 2000년에 시작되었을 때, 뉴멕시코에 있는 망원경은 첫 몇 주 동안 천문학 역사 전체에 걸쳐 수집된 것 보다 많은 데이터를 모았다. 10년이 지난 현재, 그들의 저장소에는 140테라 바이트라는 엄청난 양의 정보가 저장되어있다. 2016년에 칠레에 설치될 이의 후속 Large Synoptic Survey 망원경은 이 정도 양의 데이터를 5일 이면 모을 것이다.


이러한 천문학적인 양의 정보는 지구에 더 가까운 곳에서도 찾을 수 있다. 거대 소매상 월 마트는 1백만 건의 소비자 구매 건을 처리하고 2.5 페타 바이트 이상으로 측정되는 데이터베이스에 이들을 보관한다. 이는 미의회도서관에 있는 책의 167배에 달하는 양이다. 소셜 네트워크 웹 사이트 페이스북은 400억 개의 사진을 보유하고 있다. 그리고 인간 유전자에 포함된 30억 기본 쌍을 분석하는데 최초로 이것이 이루어졌던 2003년에는 10년이 걸렸지만 지금은 1주면 충분하다.


이러한 모든 예들은 같은 것을 시사한다. 세계에는 상상도 할 수 없을 만큼 거대한 양의 디지털 정보들이 점점 더 거대해지고, 더 빠르게 늘어나고 있다. 이는 예전에는 이룰 수 없었던, 비지니스 트랜드를 파악하고, 질병을 예방하고, 범죄와 싸우는 등을 가능하게 해준다. 잘 관리 된다면, 이러한 데이터는 과학에 있어서 신선한 통찰을 제시하고, 정부에 책임을 묻는 등, 새로운 경제적 가치의 원천으로 활용될 수 있다.


하지만 이들은 또한 다수의 문제점을 만들어낸다. 센서, 컴퓨터, 모바일 폰 등의 이러한 모든 정보를 얻고, 처리하고, 공유하는 도구들은 넘쳐나지만, 이들을 저장할 가용 공간이 크게 부족하다. 게다가, 전세계적으로 어느 때보다 활발하게 정보가 복제되고 공유되는 때에 데이터의 보안과 사생활 보호 등은 점점 더 어려워지고 있다.



존스 홉킨스 대학의 천체 물리학자 Alex Szalay는 데이터의 풍족함이 오히려 이들을 더 다루기 어렵게 만든다고 지적한다. 그는 “어떻게 이 모든 데이터를 이해해야 하나요? 사람들은 다음 세대를 어떻게 교육시킬지에 대해서 고민해야 합니다. 과학자 뿐 아니라, 정부나 산업에서 일하는 사람 모두요.” 라고 말한다.


“우리는 너무도 많은 정보들이 만드는 이전과는 다른 세상을 살고 있습니다.” 사회에서의 정보의 역사에 관한 다수의 책을 집필한 IBM의 James Cortada는 말한다. UC 버클리의 컴퓨터 과학자 Joe Hellerstein은 이것을 “데이터의 산업 혁명”이라고 부른다. 이의 영향력은 산업분야에서 과학분야까지, 정부에서 예술 분야까지 모든 곳에서 느낄 수 있다. 과학자들과 컴퓨터 기술자들은 이러한 현상을 “big data”라고 불러왔다.


인식론적으로 말해서, 정보는 데이터의 집합으로 구성되고, 지식은 각각의 서로 다른 정보들의 묶음으로 구성된다. 하지만 이 스페셜 리포트에서는 “데이터”“정보”를 서로 혼용해서 사용한다. 왜냐하면, 나중에 다루어지겠지만, 이 둘은 서로 구분하기 점점 어려워지고 있다. 주어진 충분한 양의 순수한 데이터에서, 현재의 알고리즘과 강력한 컴퓨터들을 가지고 과거에는 숨겨져 있었던 새로운 통찰을 발견해 낼 수 있다.


정보 관리 산업 – 어떤 조직이 그들의 풍부한 데이터를 이해하도록 돕는 – 은 대폭 성장하고 있다. 최근 몇 년간 오라클, IBM, 마이크로소프트 그리고 이들 사이의 SAP은 150억불 이상을 데이터를 관리하고 분석하는데 특화된 소프트웨어 기업을 사들이는데 썼다. 이 산업은 최소 1000억불 이상의 값어치로 평가되며 대충 소프트웨어 산업 전체가 성장하는 속도의 2배인 연간 10% 정도 성장하고 있다.


최고 정보 관리 책임자는 경영진 사이에서 그 중요성이 커져왔고, 또한 소프트웨어 프로그래머, 통계학자 그리고 스토리 텔러/예술가의 기술을 모두 가지고 산처럼 많은 데이터 속에 숨겨진 금 덩어리를 발견하는 데이터 과학자라는 새로운 형태의 전문가가 등장했다. 구글의 최고 경제 전문가 Hal Varian은 이런 통계 전문가의 직업이 가장 매력적이 될 것이라고 예측했다. 그가 설명하기를, 데이터는 어디에나 존재하지만 그 속에서 지혜를 찾아내는 능력은 부족하다는 것이다.


모든 것 그 이상


이러한 정보의 폭발에는 여러 이유가 있다. 가장 확실한 것 하나는 기술이다. 디지털 기기의 능력이 발전하고 가격은 곤두박질 치면서 센서나, 미니기기들은 예전에는 불가능했던 엄청나게 많은 정보를 디지털화 시키고 있다. 그리고 더욱 더 많은 사람들이 더 강력한 도구들을 사용하고 있다. 예를 들어서 세계적으로는 46억 명의 모바일 폰 가입자가 존재한다. (많은 사람들이 하나 이상을 사용하기 때문에, 이러한 수치가 제시하는 것 만큼 세계의 68억 인구 모두에게 보급되어 있지는 않다.) 그리고 10억에서 20억의 사람들이 인터넷을 사용한다.


게다가, 정보를 통해 의사 소통하는 사람들이 더욱 증가했다. 1990년과 2005년 사이에 세계적으로 10억의 사람이 중산층 계급에 진입했다. 그들이 더 부유해지고, 문맹에서 벗어남에 따라, 정보양의 증가에 기여했다고 Cortada씨는 말한다. 그 결과는 정치, 경제 뿐 아니라 법 등의 각 분야에서 나타났다. “과학에서의 혁명 전에 측량에서의 혁명이 있었습니다.” 뉴욕 대학의 경영학 교수 Sinal Aral는 말한다. 현미경이 세균을 발견하여 생물학을 변화시키고, 전자 현미경이 물리학을 변화시킨 것처럼, 모든 이러한 데이터는 사회 과학을 거꾸로 뒤집고 있다고 그는 설명했다. 연구자들은 인간의 행동을 인구 차원의 레벨이 아닌 개인 레벨에서 이해하는 것이 가능해졌다.


디지털 정보의 양은 매 5년마다 10배씩 증가하고 있다. 컴퓨터 산업에서 이제는 당연시되는 무어의 법칙은 컴퓨터 칩의 프로세스 파워와 저장 용량이 두 배가 되고 가격은 절반이 되는데 18개월이 걸린다 한다. 소프트웨어 프로그램도 나날이 향상되고 있다. 프린스턴 대학의 컴퓨터 과학자 Edward Felten은 컴퓨터 어플리케이션들을 구동시키는 알고리즘의 발전이 지난 몇 십 년 동안 무어의 법칙의 중요한 부분으로서 역할을 해왔다고 측정한다.


이러한 정보의 많은 양이 공유되고 있다. 통신장비 메이커인 Cisco에 따르면 2013년까지 인터넷을 통해 흘러 다니는 트래픽의 양은 연간 667 엑사바이트에 달할 것이라고 한다. 그리고 데이터의 양은 지속적으로 네트워크가 운송할 수 있는 양보다 더 빠른 속도로 증가할 것이라 한다. 사람들은 그들이 정보의 늪에서 허우적댄다고 불평해왔다. 1917년으로 돌아가 한 코네티컷의 제조 회사의 매니져는 전화의 영향에 대해서 불평을 했다. : “시간은 낭비되고 혼란스러운 결과만 낳고, 돈은 돈대로 낭비된다.” 지금 일어나고 있는 일들은 점진적 증가 이상이 될 것이다. 양적인 팽창은 질적인 다름을 만들어내기 시작했다.


정보의 부족에서 과다에의 이동은 폭 넓은 변화를 가져온다. “우리가 관심 있는 것은 데이터를 통해 경제적인 성과를 낼 수 있는 능력이다. 그리고 이것은 나에게는 사회적 차원에서, 혹은 거시경제학 차원에서의 큰 변화이다.” 라고 마이크로소프트의 연구와 전략 책임자 Graig Mundie는 말한다. 데이터는 자본이나 노동력과 거의 동등한 레벨의 경제적 인풋으로 경영의 새로운 원자재가 되고 있다. “매일 나는 잠에서 일어나 묻습니다, 어떻게 데이터를 잘 흘러가게 하고, 데이터를 잘 관리하고, 데이터를 잘 분석할 수 있을까?” 월마트의 CIO Rollin Ford는 말한다.


복잡한 정량적 분석은 과거처럼 미사일 궤도 분석이나 재정의 연계 전략 뿐 아니라 삶의 많은 분야에서 적용되어 왔다. 예를 들어, 마이크로소프트의 검색엔진 Bing의 일부분인 Farecast는 고객에게 항공 티켓을 지금 구입할지, 아니면 가격이 내려가기를 기다릴지를 2250억 개의 비행과 가격 기록을 살펴본 후 조언해 줄 수 있다. 같은 아이디어가 호텔 룸이나, 자동차, 비슷한 아이템까지 확장 될 수 있다. 개인 금융 웹 사이트와 은행들은 그들의 고객 데이터를 종합하여 거시 경제학 트랜드를 밝혀내고 이는 그들 자신의 노력을 통해 보조적인 비지니스로 발전될 수 있다. 숫자에 빠삭한 이들은 일본의 스모에서 승부 조작이 있었다는 사실까지 밝혀냈다.


쓰레기를 금으로


“데이터 배기가스” – 인터넷 사용자들이 뒤에 남기는 클릭의 자취에서 가치가 발견될 수 있다 – 가 인터넷 경제의 중심이 되고 있다. 예의 하나로서 검색 질의 문과의 연관성을 얼마나 많은 클릭이 그 대상에 있었느냐에 따라 측정하는 구글의 검색 엔진을 들 수 있다. 만약 어떤 검색어의 8번째 결과를 사람들이 가장 많이 방문한다면 이 알고리즘은 이것을 가장 위에 위치 시킨다.


세계가 점점 디지털로 변화하면서 데이터를 모으고 분석하는 것이 다른 분야에서도 막대한 양의 이익을 가져다 줄 수 있다. 예를 들어, 마이크로소프트의 Mundie와 구글의 CEO, Eric Schmidt는 미국 건강 보험의 개혁을 위한 대통령 테스크 포스에 임명되었다. “일의 초기 단계에서는 Eric과 저 모두는 말했죠. ‘보세요, 당신이 만약 정말로 건강 보험을 개혁하기를 원한다면, 당신은 기본적으로 사람들과 관련된 데이터에서 일종의 건강 보험 경제 구조를 만들어야 합니다.’ “ Mundie는 설명했다. “건강 보험을 제공하는 것의 산출물로서 데이터를 생각하면 안됩니다, 그 대신 데이터는 건강 보험의 모든 면을 어떻게 증진 시킬지 구체화 시키려는 과정에서의 중심적인 자산이 되어야 합니다. 이는 약간의 도치입니다.”


틀림없이, 디지털 기록은 의사들을 편하게 만든다. 공급자와 환자를 위한 가격을 낮추고 치료의 질을 높인다. 하지만 종합적으로 데이터는 원치 않은 마약 거래나, 가장 효과적인 치료법을 찾아내거나, 증상이 나타나기 전에 질병의 시작을 예측하기 위해서도 사용되고 있다. 컴퓨터는 벌써 이러한 일을 시도하고 있지만, 명시적으로 이러한 목적으로 프로그램 될 필요가 있다. 거대한 데이터의 세계에서는 사물의 연관 관계들이 이들에 의해 수면 위로 떠오른다.


때로는 이러한 데이터들이 의도한 것 이상을 밝혀내기도 한다. 예를 들어 캘리포니아에 있는 Oakland 시에서는 언제 어디서 검거가 이루어졌는지 정보를 Oakland Crimespotting이라는 사설 웹 사이트에 공개했다. 어느 순간, 몇몇의 클릭이 매춘을 위해 분주한 거리 전체를 경찰은 월요일 저녁을 제외하고는 매일 순찰한다는, 그들이 숨기고 싶었던 전략을 밝혀냈다. 


하지만 많은 양의 데이터는 이러한 결과들보다 훨씬 더 심각한 결과를 낸다. 최근의 금융 위기 기간에 은행과 신용 평가 기관들이 엄청난 양의 정보를 이용하면서도 현실 세계의 금융 위험을 제대로 반영하는데 실패한 모델에 의존했다는 사실이 명확해졌다. 이는 거대한 양의 데이터에 의해 촉발된 첫 번째 위기였다. 그리고 이러한 예는 앞으로도 더 있을 것이다. 


정보가 관리되는 방법은 삶에 전반적으로 영향을 미친다. 20세기로의 변화의 시점에 전신이나 전화 같은 새로운 채널을 통한 정보의 흐름이 대량 생산을 뒷받침했다. 현대의 풍부한 데이터의 가용성이 기업들로 하여금 세계 곳곳에 위치한 작은 틈새 시장를 노릴 수 있게 한다. 경제적인 생산이 관리자가 모든 기계과 작업을 감시하여 이를 더 효율적으로 만드는 공장의 기본이었다. 지금 통계학자들은 경영에서 새로운 아이디어를 위한 정보를 발굴한다.


“데이터 중심의 경제가 이제 막 선보였을 뿐입니다.” 라고 마이크로소프트의 Mundie는 선언했다. “대충의 윤곽은 확인할 수 있습니다. 하지만 기술적인, 기반 시설의 그리고 비지니스 모델에의 영향들은 현재로서는 잘 이해되지 않습니다.” 이 스페셜 리포트는 어디에서 이러한 현상들이 나타날지를 가리키게 될 것이다.



영어 원문


[#M_ more.. | less.. | 


A special report on managing information


Feb 25th 2010 |
From The Economist print edition


Data, data everywhere


Information has gone from scarce to superabundant. That brings huge new benefits, says Kenneth Cukier (interviewed here)—but also big headaches




WHEN the Sloan Digital Sky Survey started work in 2000, its telescope in New Mexico collected more data in its first few weeks than had been amassed in the entire history of astronomy. Now, a decade later, its archive contains a whopping 140 terabytes of information. A successor, the Large Synoptic Survey Telescope, due to come on stream in Chile in 2016, will acquire that quantity of data every five days.


Such astronomical amounts of information can be found closer to Earth too. Wal-Mart, a retail giant, handles more than 1m customer transactions every hour, feeding databases estimated at more than 2.5 petabytes—the equivalent of 167 times the books in America’s Library of Congress (see article for an explanation of how data are quantified). Facebook, a social-networking website, is home to 40 billion photos. And decoding the human genome involves analysing 3 billion base pairs—which took ten years the first time it was done, in 2003, but can now be achieved in one week.


All these examples tell the same story: that the world contains an unimaginably vast amount of digital information which is getting ever vaster ever more rapidly. This makes it possible to do many things that previously could not be done: spot business trends, prevent diseases, combat crime and so on. Managed well, the data can be used to unlock new sources of economic value, provide fresh insights into science and hold governments to account.


But they are also creating a host of new problems. Despite the abundance of tools to capture, process and share all this information—sensors, computers, mobile phones and the like—it already exceeds the available storage space (see chart 1). Moreover, ensuring data security and protecting privacy is becoming harder as the information multiplies and is shared ever more widely around the world.



Alex Szalay, an astrophysicist at Johns Hopkins University, notes that the proliferation of data is making them increasingly inaccessible. “How to make sense of all these data? People should be worried about how we train the next generation, not just of scientists, but people in government and industry,” he says.


“We are at a different period because of so much information,” says James Cortada of IBM, who has written a couple of dozen books on the history of information in society. Joe Hellerstein, a computer scientist at the University of California in Berkeley, calls it “the industrial revolution of data”. The effect is being felt everywhere, from business to science, from government to the arts. Scientists and computer engineers have coined a new term for the phenomenon: “big data”.


Epistemologically speaking, information is made up of a collection of data and knowledge is made up of different strands of information. But this special report uses “data” and “information” interchangeably because, as it will argue, the two are increasingly difficult to tell apart. Given enough raw data, today’s algorithms and powerful computers can reveal new insights that would previously have remained hidden.


The business of information management—helping organisations to make sense of their proliferating data—is growing by leaps and bounds. In recent years Oracle, IBM, Microsoft and SAP between them have spent more than $15 billion on buying software firms specialising in data management and analytics. This industry is estimated to be worth more than $100 billion and growing at almost 10% a year, roughly twice as fast as the software business as a whole.


Chief information officers (CIOs) have become somewhat more prominent in the executive suite, and a new kind of professional has emerged, the data scientist, who combines the skills of software programmer, statistician and storyteller/artist to extract the nuggets of gold hidden under mountains of data. Hal Varian, Google’s chief economist, predicts that the job of statistician will become the “sexiest” around. Data, he explains, are widely available; what is scarce is the ability to extract wisdom from them.


More of everything


There are many reasons for the information explosion. The most obvious one is technology. As the capabilities of digital devices soar and prices plummet, sensors and gadgets are digitising lots of information that was previously unavailable. And many more people have access to far more powerful tools. For example, there are 4.6 billion mobile-phone subscriptions worldwide (though many people have more than one, so the world’s 6.8 billion people are not quite as well supplied as these figures suggest), and 1 billion-2 billion people use the internet.


Moreover, there are now many more people who interact with information. Between 1990 and 2005 more than 1 billion people worldwide entered the middle class. As they get richer they become more literate, which fuels information growth, notes Mr Cortada. The results are showing up in politics, economics and the law as well. “Revolutions in science have often been preceded by revolutions in measurement,” says Sinan Aral, a business professor at New York University. Just as the microscope transformed biology by exposing germs, and the electron microscope changed physics, all these data are turning the social sciences upside down, he explains. Researchers are now able to understand human behaviour at the population level rather than the individual level.


The amount of digital information increases tenfold every five years. Moore’s law, which the computer industry now takes for granted, says that the processing power and storage capacity of computer chips double or their prices halve roughly every 18 months. The software programs are getting better too. Edward Felten, a computer scientist at Princeton University, reckons that the improvements in the algorithms driving computer applications have played as important a part as Moore’s law for decades.


A vast amount of that information is shared. By 2013 the amount of traffic flowing over the internet annually will reach 667 exabytes, according to Cisco, a maker of communications gear. And the quantity of data continues to grow faster than the ability of the network to carry it all.


People have long groused that they were swamped by information. Back in 1917 the manager of a Connecticut manufacturing firm complained about the effects of the telephone: “Time is lost, confusion results and money is spent.” Yet what is happening now goes way beyond incremental growth. The quantitative change has begun to make a qualitative difference.


This shift from information scarcity to surfeit has broad effects. “What we are seeing is the ability to have economies form around the data—and that to me is the big change at a societal and even macroeconomic level,” says Craig Mundie, head of research and strategy at Microsoft. Data are becoming the new raw material of business: an economic input almost on a par with capital and labour. “Every day I wake up and ask, ‘how can I flow data better, manage data better, analyse data better?” says Rollin Ford, the CIO of Wal-Mart.


Sophisticated quantitative analysis is being applied to many aspects of life, not just missile trajectories or financial hedging strategies, as in the past. For example, Farecast, a part of Microsoft’s search engine Bing, can advise customers whether to buy an airline ticket now or wait for the price to come down by examining 225 billion flight and price records. The same idea is being extended to hotel rooms, cars and similar items. Personal-finance websites and banks are aggregating their customer data to show up macroeconomic trends, which may develop into ancillary businesses in their own right. Number-crunchers have even uncovered match-fixing in Japanese sumo wrestling.


Dross into gold


“Data exhaust”—the trail of clicks that internet users leave behind from which value can be extracted—is becoming a mainstay of the internet economy. One example is Google’s search engine, which is partly guided by the number of clicks on an item to help determine its relevance to a search query. If the eighth listing for a search term is the one most people go to, the algorithm puts it higher up.


As the world is becoming increasingly digital, aggregating and analysing data is likely to bring huge benefits in other fields as well. For example, Mr Mundie of Microsoft and Eric Schmidt, the boss of Google, sit on a presidential task force to reform American health care. “Early on in this process Eric and I both said: ‘Look, if you really want to transform health care, you basically build a sort of health-care economy around the data that relate to people’,” Mr Mundie explains. “You would not just think of data as the ‘exhaust’ of providing health services, but rather they become a central asset in trying to figure out how you would improve every aspect of health care. It’s a bit of an inversion.”


To be sure, digital records should make life easier for doctors, bring down costs for providers and patients and improve the quality of care. But in aggregate the data can also be mined to spot unwanted drug interactions, identify the most effective treatments and predict the onset of disease before symptoms emerge. Computers already attempt to do these things, but need to be explicitly programmed for them. In a world of big data the correlations surface almost by themselves.


Sometimes those data reveal more than was intended. For example, the city of Oakland, California, releases information on where and when arrests were made, which is put out on a private website, Oakland Crimespotting. At one point a few clicks revealed that police swept the whole of a busy street for prostitution every evening except on Wednesdays, a tactic they probably meant to keep to themselves.


But big data can have far more serious consequences than that. During the recent financial crisis it became clear that banks and rating agencies had been relying on models which, although they required a vast amount of information to be fed in, failed to reflect financial risk in the real world. This was the first crisis to be sparked by big data—and there will be more.


The way that information is managed touches all areas of life. At the turn of the 20th century new flows of information through channels such as the telegraph and telephone supported mass production. Today the availability of abundant data enables companies to cater to small niche markets anywhere in the world. Economic production used to be based in the factory, where managers pored over every machine and process to make it more efficient. Now statisticians mine the information output of the business for new ideas.


“The data-centred economy is just nascent,” admits Mr Mundie of Microsoft. “You can see the outlines of it, but the technical, infrastructural and even business-model implications are not well understood right now.” This special report will point to where it is beginning to surface.

_M#]

[Economist] A World of Connections : a special report on social networking

본 내용은 Economist의 1월 Special Report인 A World of Connections 중 Profiting from friendship 부분을 번역한 것임


Friendship을 통해 돈을 벌기


소셜 네트워크에는 비판하는 사람들이 생각하는 것보다 더 많은 돈을 벌 기회가 있다.


실리콘밸리의 기업가들은 절반은 농담조로 URL 전략이라고들 부른다. 이 3글자는 보통 인터넷을 통해 접근이 가능한 고유의 파일을 나타내는 Uniform Resource Locator를 지칭한다. 하지만 인터넷의 신생 기업들 사이에서 URL은 다른 뜻을 가진다. Ubiquity first, Revenue Later. 일단 널리 퍼뜨리고, 나중에 수익을 거둔다. 이는 지난 몇 년 동안 이익을 낼 걱정은 하지 않고 사용자들을 끌어 모으는데 집중한 대부분의 거대한 온라인 소셜 네트워크들의 전략 중 상당히 많은 부분을 설명한다. 이러한 전략 덕택에 많은 사용자들을 확보하는데 성공했지만 그 끌어 모은 이용자들로부터 어떻게 수익을 낼지에 대한 커다란 의문을 남겨놓았다.


구글이 그들이 제공하는 검색 결과와 나란히 의도된 광고를 보여주며 수십억 달러를 벌어들일 수 있었던 것과 같은 방법으로 소셜 네트워크 산업이 엄청나게 성공적인 형태의 광고를 통해 스타덤에 오를 수 있을지가 현재의 이슈이다. 주장은 이에서 더 나아가 이러한 공식 없이는 페이스 북 같은 소셜 네트워크는 절대 성공할 수 없다는 데까지 이른다.


회의론자들은 이러한 네트워크가 두 가지 커다란 핸디캡을 안고 있다고 주장한다. 첫째로는 사람들이 소셜 네트워크 사이트에 로그인 하는 것은 친구들과 어울리기 위해서이므로 광고는 신경도 쓰지 않을 것이라는 점이다. 두 번째는 이러한 사이트들은 사용자들이 그들만의 컨텐츠를 만들도록 하는데, 저속하거나, 음란하거나 선정적인, 혹은 이 셋 모두와 함께 자신들의 광고가 노출되는 위험을 광고주들은 원하지 않고 따라서 그들을 끌어 모으기도 힘들 것이라는 것이다.


미미한 클릭율


회의론자들도 나름대로의 근거가 있다. 페이스북 같은 사이트에 보여지는 광고를 클릭하는 비율은 구글의 정확하게 겨냥된 검색 광고에 비하면 아주 작다. 그리고 광고주들이 그들의 브랜드를 소셜 사이트 페이지를 통해 광고하고 싶어하긴 하지만, 몇몇은 이러한 저조한 클릭율 때문에 광고 개제를 요청하는 것을 꺼려한다. “우리는 대부분의 시간을 이러한 네트워크를 통해 사람들과 소통하는데 사용하고 있습니다. 그들에게 광고하는 것이 아닙니다.” 포드사의 소셜 미디어 부서장인 Scott Monty는 말했다. 비록 작년에 사용자의 수가 급격히 늘었지만 가장 큰 광고 시장인 미국에서 소셜 네트워크 산업의 이익은 겨우 4%가 증가해 12억불에 불과하다고 시장 조사기관 eMarketer는 밝혔다.


이것도 사실은 하나의 성과였다. 왜냐하면 온라인 광고 시장 전체가 2009년에 줄어들었기 때문이다. 작년 매출이 줄어들었다고 생각되는 마이 스페이스를 제외하고 상황은 좋아진 것으로 보인다. 또 올해 마이 스페이스가 그들의 사이트에서 검색 광고를 구글이 관리하도록 한 협정을 갱신할 때가 다가왔다는 것도 또 다른 안좋은 소식이다. 새로 합의에 다다른다 해도 이는 일정 트래픽에 다다르기만 하면 3년간 900만불을 제시했던 이전 것보다는 더 안 좋은 조건이 될 것이다.


넓은 시각에서 소셜 네트워크 사이트들은 더 희망적이다. 올해 eMarket는 마이 스페이스의 곤경에도 불구하고 산업 전체 매출이 7%이상 증가할 것으로 예상했다. 또 다른 시장 조사 기관 ComScore는 작년 6월 미국 웹 이용자들이 본 5개중 하나의 광고가 소셜 네트워크 사이트에서였고 마이 스페이스가 여전히 이 중 가장 큰 비중을 차지했다고 밝혔다. 작년 8월 영국에서의 또 다른 조사도 비슷한 결과를 냈고 통신사들과 소매상들이 광고주의 가장 큰 부분을 차지했다.


광고에 대한 클릭율이 이렇게 낮은데도 이러한 네트워크 사이트들은 점점 더 인기를 얻어 갈까? 그 이유 중 하나는 이러한 선도적인 사이트들의 순수한 규모에 끌리기 때문이다. 페이스북의 이용자는 세상의 어떤 TV 네트워크보다 많은 이용자를 보유하고 있다고 Interactive Advertising Bureau의 국장 Randall Rothenberg는 말했다. 또 다른 기업들이 매력을 느끼는 요소는 사용자의 나이, 성별, 흥미 관심분야 등 수집된 데이터 덕분에 아주 정밀하게 타겟 광고를 펼칠 수 있는 네트워크의 능력이다. 비록 아직도 자신의 브랜드가 자극적인 컨텐츠와 함께 노출될 위험이 있지만, 기업들은 현재 네트워크 사이트들이 차지하는 광고의 비중이 점점 더 늘어감에 따라 이러한 위험을 기꺼이 껴안을 것으로 보인다.


소셜 네트워크 사이트들에게 더 많은 돈이 몰리고 있는 또 다른 이유는 몇몇 광고주들이 그들의 투자에 대한 막대한 이익을 기대하고 있기 때문이다. 영화사인 소니 Pictures Entermainment의 사장 Michael Lynton은 소셜 네트워크 사이트를 광고에 이용하는 것에 대해 매우 비판적이었다고 말했다. 사실 Lynton은 그들의 컨텐츠에 대한 온라인 불법 복제에 대한 비판 차원의 인터넷으로는 어떤 도움이 될 만한 것도 얻을 수 없었다는 발언으로 유명하다.


하지만 소니는 그들이 지난 여름 진행한 온라인 실험으로 도움이 될 만한 것을 얻을 수 있었다. 소니는 전통적인 방식의 TV 캠페인을 방영한 이후에 그들의 3편의 영화에 대한 홍보를 페이스북에서의 시리즈 광고로 진행했다. 디스트릭트9은 젊은 남성을, Julie & Julia는 중년 여성을 The Ugly Truth는 더 어린 여성을 대상으로 했다. 영화에 대한 인지도 조사가 TV광고가 끝난 후, 또 웹 광고가 끝난 후 시행되었다. 각각에서 온라인 광고가 인지도를 크게 끌어 올리는 것으로 나타났다. Lynton은 이제 소셜 네트워크가 마케팅에 커다란 지형 변화를 가져오는 것을 확신했다고 말했다.


락, 베이비


이러한 확신을 가지게 된 또 다른 기업은 작년 마이 스페이스와 공동으로 밴드들이 그들의 음악 데모 테이프를 제출토록 한 “Rock the Space” 공모전을 개최한 도요타이다. 약 18,000개가 출품 되었으며 마이 스페이스 이용자를 대상으로 최우수 테이프를 뽑는 투표가 진행되었으며 해당 밴드와는 음반 계약을 하도록 되어 있었다. 도요타 미국 법인에서 해외 소셜 미디어 마케팅을 담당하고 있는 Doug Frisbie는 이 프로모션이 그들의 브랜드 홍보에 대한 기대를 수배나 훌쩍 넘었다고 말했다.


이 두 기업의 사례는 소셜 네트워크를 이용하는 사람들은 비평가들이 생각하는 것 이상으로 브랜드에 높은 관심을 가진다는 사실을 말해준다. Lynton은 또한 사람들이 그들이 깨달은 사실을 친구들 사이에서 서로 말해주는데 소셜 네트워크를 이용하기 때문에 강력한 구전 마케팅 효과를 낼 수 있을 것이라고 예상한다. 마케터들은 이러한 추천이 상품 구입 결정에 매우 중요한 역할을 한다는 사실을 오래 전부터 알고 있었다. 소셜 네트워크는 이러한 과정을, 예를 들어 어떤 곳의 상품이나 특정 브랜드를 선호하게 됐다는 사실을 자동적으로 친구들에게 전달하는 등의 방법을 써서, 촉진 시킬 수 있는 효과적인 기술이다. 


커다란 의문점 하나는 이러한 모든 것들이 커다란 광고 수입으로 연결 될 수 있느냐는 것이다. 소셜 네트워크 들이 그들의 공로로 인정 받고 있는 것보다 더 큰 값어치가 있는지에 대해서는 커다란 논란이 있을 것이라고 comScore의 애널리스트 Andrew Lipsman은 말했다. 하지만 그는 광고 산업이 현재 일어나고 있는 변화를 느리게 인지할 수도 있다고 경고했다. 이러한 속도를 따라잡기 위해, 페이스북은 Nielsen과 브랜드에 대한 소셜 네트워크 광고의 영향을 측정하기 위한 일련의 벤치마크를 수행할 연합을 구성하였다. 페이스북의 최고 운영 책임자인 Sheryl Sandberg는 이것이 회사들이 그들의 광고 효과에 대한 피드백을 과거보다 빠르게 얻을 수 있게 해줄 것이라고 말했다.


페이스북은 또한 내장된 온라인 투표라던가, 댓글을 달 수 있는 비디오 같은 사람들을 끌어 모으기 위한 새로운 형식의 광고를 실험 중에 있다. 지금까지는 확 끌어당길 수 있는 형태로 나타나지는 않았지만, 단지 현재에 머물러 있는 것처럼 보이지는 않는다. 정확한 수치로 밝혀지지는 않았지만, 페이스북은 작년 매출이 최소 5억불, 그 이상으로 이는 2009년 중반 자금 흐름이 흑자로 돌아서는데 도움을 주었을 것이다. 세계 경제 불황과 끔찍한 광고 시장을 배경으로 이것은 큰 성과이다. 이는 또한 페이스북이 하나의 성공적인 광고 포맷보다는 다양한 형태의 광고를 통해 잘 해나갈 수 있다는 것을 시사한다. 하나의 어마어마한 성공이 있을 필요가 없다고 IAB의 Rothenberg는 말한다.


즐거움과 소득


133653014B83E9B80A80B5[1]오직 광고 하나에 의지한 비지니스 모델일 필요도 없다. 일본의 GREE나, 커다란 소셜 네 트워크가 포함된 QQ를 가지고 있는 중국의 Tencent 등 아시아의 여러 기업들은 벌써 흡족한 수준의 이익을 게임이나 가상의 상품을 판매해서 올리고 있다. 2008년, 홍콩 증권 거래소에 상장되어있는 Tencent는 10억불이 넘는 그들의 매출 중 7.2억불이 온라인 게임이나 가상의 검, 상품 같은 아이템 판매를 통해 벌었다. 한국의 싸이월드, 일본의 믹시 같은 아시아의 많은 네트워크 사이트들도 이용자들에게 자신만의 배경이나 다른 자신의 네트워크 페이지를 꾸미기 위한 용품 판매로 많은 돈을 벌었다.


이에 고무되어 다른 기업들도 아시아의 모델에 있는 요소들을 포함 시키고 있다. 전세계적으로 6천만명의 가입자를 가진 미국의 Hi5는 다양한 게임을 그들의 플랫폼에 런칭 시키고 이들 게임에서 사용할 수 있는 Hi5 코인이라 불리는 그들만의 가상 화폐를 만들었다. 이 회사의 최고 기술 책임자인 Alex St John는 이용자들 사이에 사용되는 화폐 등의 스폰서로 나서도록 기업을 설득하는 등, 게임과 광고가 쉽게 융합될 수 있다고 말한다.


Ning은 게임보다는 선물에 초점을 맞추고 있다. 10월 그들은 사람들이 그들만의 네트워크를 시스템 상에서 구축하고 자신만의 디지털 아이템을 다른 사용자들에게 팔 수 있는 새로운 서비스를 런칭했다. 아이템의 가격은 50센트부터 10달러까지로, 40만개 이상이 매월 팔리고 있으며 이 이익을 동등하게 Ning과 고객이 분배한다. 이는 네트워크 관리 요금과 광고 판매 수익으로 벌어들인 매출에 추가될 것이다. 광고에 초점을 맞추고 있는 페이스북 조차 가상의 생일 케잌, 샴페인 병과 다른 상품 창고를 가지고 있다.


소셜 네트워크 사이트에서 이런 사업의 아름다움은 가상의 창고를 제작하고 저장하는데 비용이 얼마 들지 않는 다는 것이다. 게다가, 폐쇄된 시장이기 때문에, 높은 마진을 올릴 수 있는 선에서 가격을 고정 시킬 수 있다는 점이다. 어느 정도는 가상의 아이템들을 팔아서 큰 돈을 벌 수 있다는 개념이 기이해 보일 수도 있다. 하지만 이러한 행동은 실 세계에서 사람들간의 관계를 돈독하게 하기 위해 물리적인 선물을 주고 받는 것을 그대로 답습한다. 비록 아시아가 디지털 장신구들을 파는 훨씬 더 큰 최대의 시장으로 남아있지만, 연구기관 Inside Network는 미국의 다양한 웹 사이트에서의 가상 물건의 판매가 작년 10억불에 달했고 2010년에는 16억불까지 성장할 것이라고 예측했다.


수수하게 아니면 화려하게?


또 다른 수익성이 좋은 비지니스 모델 중 하나는 이용자에게 프리미엄 서비스에 대한 요금을 부과하는 것이다. 이러한 방법이 가장 적합한 것은 비지니스 대상의 네트워크이다. 예를 들어, LinkedIn은 기본적인 무료 서비스를 제공하지만, 사용자에게 최대 500달러의 월 가입 요금을 지불할지 물어본 후 추가적으로 다수의 소개 이메일을 사이트의 다른 이용자들에게 보내는 등의 서비스를 제공한다. 일년에 1억불 이상의 매출을 올리는 것으로 알려진 이 기업은 기업들에게 원하는 이력을 찾아 낼 수 있도록 돕는 온라인 도구를 제공하는데 요금을 부과하여 돈을 벌기도 한다. 이러한 “freemium” 모델과 부유한 고객까지 전달되기를 원하는 거대 브랜드들의 충분한 양의 광고가 결합되어 LinkedIn으로 하여금 몇 년 동안의 운영 이익을 벌게 해줬다.


소셜 네트워크들은 또한 검색 엔진들의 더 많은 컨텐츠를 확보하기를 원하는 욕구를 이용해 이득을 챙겨왔다. 트위터는 구글과 마이크로소프트의 검색 서비스 Bing의 검색 결과에 트위터의 데이터베이스를 포함시키도록 허용하는 돈이 되는 계약을 10월 체결했다.


올해 그들은 두 가지 방법으로 더 많은 돈을 벌 계획을 세우고 있다. 첫 번째는 트위터 상에서의 토론을 분석하는 도구 등의 서비스를 기업들에게 제공하고 요금을 부과하는 것이고, 또 사람들이 그들이 받는 트윗이 실제 기업이라는 것을 알게 해주는 인증된 계정을 통해서 이다. 그들은 또한 구글이 하는 것과 마찬가지의 맞춤형 광고를 시작해 돈을 벌기를 원한다. 트위터의 공동 설립자중 하나인 Biz Stone은 트위터의 팬들은 이미 다른 사람들로부터 정보를 얻는데 이 서비스(트위터)를 이용하고 있기 때문에 이를 기꺼이 받아들일 것이라고 예상했다. 사람들은 일상적으로 상업적인 사이트의 링크를 나누고 있으며 작년의 한 조사에 따르면 사람들은 그들의 트윗 중 20%에서 특정 브랜드나 제품을 언급한다. 이것이 왜 트위터나 다른 소셜 네트워크가 수 백 만개의 소규모 비지니스 뿐 아니라 수 천 개의 커다란 비지니스의 눈길을 끄는 이유이다.

[Economist] World Wide Wait

World Wide Wait



Feb 12th 2010 |
From The Economist online


The faster the internet becomes, the slower it loads pages
인터넷이 빨라질수록 페이지 로드 시간은 길어진다


최근의 웹 페이지들을 불러오는데 얼마나 오래 걸리는지 신경 써 본적이 있는가? 하나의 링크를 클릭하고 기다리고, 또 기다리고, 조금 더 기다리면 내용이 찔끔찔끔 표시된다. 만약 10초 정도 이후까지 아무 일이 일어나지 않는다면 참을성 없는 필자는 브라우져의 Stop 버튼을 누르고 Reload 버튼을 누른다. 필사적인 상태에서는 같은 링크를 두 번째 탭, 혹은 세 번째 탭에서까지 로드 해보고 웹 사이트의 서버에 페이지를 위한 다수의 요청을 퍼붓는다. 만약 그마저 실패한다면 넌더리를 내며 포기하고 대신 신문을 읽는다.


인터넷의 초창기 시절, 대부분의 웹 유저들이 전화선 연결에 의존하던 시절에는 브라우저는 부가적인 것이 없었으며, 웹 그래픽은 투박한 GIF 파일이었고, 8초가 사람들이 원하는 페이지가 로드 될 때까지 기다리는 시간의 최대치로 여겨졌다. 사람들을 다른 곳으로 발길을 돌리지 않도록 하기 위해 웹 디자이너들은 HTML 코드를 핵심만 남기고 가볍게 만들었고, 스타일시트 데이터나 자바 스크립트를 다른 곳에 하나의 파일로 모아 더 효과적으로 캐시할 수 있게 하고, 이미지는 적게 사용하고 더 작은 크기를 가지는 PNG나 JPEG과 같은 파일을 사용 가능하게 되자마자 즉시 수용했다. 텍스트와 비교하면 사진은 최소 1000단어와 동일한 전송 시간이 필요하다.



필자가 이코노미스트의 첫 번째 웹 사이트를 작성했던 1994년에는 일반적인 웹 페이지는 50킬로바이트 근처의 크기였고, 전화선을 이용한 모뎀은 1초에 3킬로바이트 이상을 전송할 수 없었다. “8초 규칙”을 지키기 위해서 사진은 최소한으로 사용되어서 어떤 페이지도 로딩을 시작하는데 3~4초 이상 걸리지 않았고, 완료 시 까지 20초가 걸리지 않았다. 아이러니한 것은 광대역이 널리 사용 가능하게 되어 전체적인 접속 속도가 급격히 늘어나고 있는 와중에도 웹 페이지를 로드 하는데 걸리는 시간은 더 늘어난 것처럼 보인다는 것이다.


필자는 DSL 연결이 수명을 다해간다는 사실을 인정한다. 하지만 지역 전화 교환기로부터 5km 떨어진 곳에서도 광대역 접속 속도는 과거 몇 년 동안 지역 회선이 개선되고 반향 제거 코일 같은 과거의 시설들이 접속 배전함에서 제거 됨으로써 초당 65킬로바이트에서 90킬로바이트로 증가했다. 


물론, 필자는 초당 650킬로바이트 이상의 속도를 케이블을 통해 얻을 수 있다. 하지만 그것은 멋진 위성-TV 서비스를 버려야 하는 것을 의미한다. 이뿐 아니라 광 케이블은 내가 살고 있는 언덕까지 설치되려면 아직도 멀었다. 만약 현재의 DSL 연결을 위해 매달 내는 21불 대신 140불을 지불하면 초당 6메가 이상으로 인터넷에 접속할 수 있게 될 것이다.


70배의 속도 증가에 비해서 7배의 가격 상승은 할인으로 보인다. 하지만 필자는 순수한 속도의 증가가 가차없이 엄격한 로딩 문제를 해결할 수 있을지 의문이다. 비록 못미더운 DSL 연결로도 일단 웹 사이트의 서버가 ( 그리고 그 경로에 있는 모든 컴퓨터와 광고, 그래픽, 그 외의 잡다한 레이아웃을 위해 사용되는 컴퓨터들 ) 브라우저의 요청에 반응하기 시작하면 페이지들은 충분히 빨리 보여진다. 문제는 우선 서버로부터 응답을 받아내는 것이다.


두 컴퓨터가 서로 정보를 교환하기 전에 그들은 서로 이야기하는 것에 동의해야 한다. 일반적인 경우, 이는 사용자의 컴퓨터가 호스트 컴퓨터에 요청을 보내야 하고 이에 대한 응답이 다시 사용자에게 전달되어야 한다. 오직 이 “핸드쉐이킹” 과정 이후에야 정보의 교환이 시작된다. 이 왕복의 요청과 응답에 걸리는 시간이 네트워크의 대기 시간을 결정한다.


이 대기 시간은 전자기 신호가 왕복해야 할 거리를 광속으로 나눈 것 이하로 줄어들 수는 없다. 예를 들어, 필자는 샌프란시스코의 동료로부터 400마일이 떨어진 로스엔젤레스의 집에 산다. 이론상으로는 이 두 장소를 왕복하는 최소 시간은 4.3 밀리세컨드이다. 하지만 보통 다른 컴퓨터에 “Ping”을 보낼 때, 왕복 시간은 일반적으로 700 밀리세컨드이다. 이것도 꽤나 빠른 속도이지만 얼마나 많은 시간이 요청을 처리하기 위한 다양한 서버들을 기다리는데 필요한지 보여준다.


메시지들이 꼼짝 없이 붙들려 있어야 하는 곳들이 전송되는 길 곳곳에 있다. 라우팅 서버에서는 데이터가 트래픽에 따라 목적지를 향해 서로 다르게 분배되어야 하는 큐가 점점 길어질 수 있다. 그중 최악은 ISP 쪽의 DNS라 불리는 도메인 네임 서버가 이용자가 방문하고자 하는 사이트(예를 들어 www.economist.com)를 실제 인터넷 주소(216.35.68.215)로 변환하느라 정신이 없이 바쁜 상황이다. 만약 안다면, 웹 사이트의 실제 숫자 주소를 장황한 URL 이름 대신에 시도해보라. 응답시간을 절반으로 줄일 수도 있다.


DNS 변환에서든, 라우팅 컴퓨터에서든, 아니면 호스트 서버 자체에서든 이러한 병목 현상들은 대부분 인프라가 처리할 수 있는 것 이상으로 인터넷 트래픽이 혼합되는 양상이 변해온 것에 기인한다. 한때 단지 50킬로바이트의 텍스트와 조그만 그림들로 이루어졌던 웹 사이트가 현재에는 음악, 비디오와 애니메이션으로 이루어진다. 유투브, Hulu, 아이튠즈, 비트 토런트도 이러한 문제를 겪고 있다.


이동 통신사의 사설 망에서 문제는 더 심각해진다. 통신사들은 가입자들의 스마트폰을 사용하면서 페이스북을 확인하고 유투브에서 비디오를 보고, 대화형 게임을 하는 등, 요구를 맞춰주기 위해 노력하고 있다. 중간 범위의 스마트폰들은 보통 한 달에 100메가바이트 정보의 데이터를 소비하지만, 완벽한 브라우징 환경과 수 천 개의 다운로드형 어플리케이션을 갖춘 더 발전된 애플의 아이폰이나 모토롤라의 드로이드 같은 모델에서는 한 달에 500메가바이트 이상을 소비하는 경향이 있다. 곧 출시가 임박한 무선 모뎀을 갖춘 아이패드 같은 태블릿 컴퓨터에서는 다운로드 데이터 사용량이 한 달에 1기가바이트에 달할 수도 있다. (이번주 비지니스 섹션의 lead story 참고)


그리고 이것은 단지 시작에 불과하다. 인터넷의 상황을 보면, UCLA에 의해 운영되는 네트워크 기상 보고에 따르면 미국 기업의 웹 사이트들의 평균 지연시간은 현재 350ms 근처이다. 구글의 지연시간이 150ms, 페이스북이 285ms, 그리고 유투브가 515ms이다. 영상회의, 고해상도 실시간 비디오, 원격 수술 등 다음 세대의 인터넷 어플리케이션들이 구현되기 위해서 이러한 지연시간들은 상당한 양 짧아질 필요가 있다.


미래는 매혹적이다. Netflix는 Full-HD 사진의 해상도(1080p라 불리는, 사진에 총 1080의 선을 가진)와 5.1 채널의 입체음향을 가지는  주문형 실시간 비디오 서비스를 제공할 것이라고 발표했다. 깨끗하고, 조밀한 영상과 선명한 음질을 구현하기 위해서는 각 회선당 1초에 1메가의 대역폭과 60ms 이하의 지연시간이 요구된다.


인터넷 서비스 제공자들에게 이는 투자를 상당히 증가 시킨다는 것을 의미한다. 하지만 엄청나게 많은 라우터를 인터넷에 추가하는 것은 일을 더 복잡하게 만들 뿐 지연시간 문제를 해결 하는 데는 별 도움이 안될 수 있다. 무엇을 하든, 그것은 사실 잠재적인 병목현상의 수를 증가시킬 수 있다. 닷컴 붐으로 잘 나가던 시절에 설치되었지만 10여 년 전 거품이 꺼진 뒤부터 거리 지하에 방치되어있는 “Dark fiber”를 사용하는 것이 더 나은 해결책일 것이다. 이는 다수의 보안 회사들이 조용히 진행하던 일이었다. 자동화된 주식거래에서 1밀리초를 단축하는 일이 100만불의 수익증가를 불러오는 이 상황에서 지연시간이 0에 가까운 사설 광 네트워크를 구축하는 것은 충분히 매력적이다.


사실, 구글은 이번 주 통신사들이 새로운 광 인터넷을 구축하기를 기다리며 시간을 허비하지 않겠다고 발표했다. 구글은 초당 100메가바이트를 50,000에서 500,000명의 사람들에 제공 가능한 낮은 지연시간을 가지는 광 네트워크를 만들 계획을 세우고 있다. 운이 좋으면, 다른 모든 인터넷 서비스 제공업체들이 이를 알게 될 것이다.


영어 원문


[#M_ more.. | less.. | 

EVER noticed how long it takes for web pages to load these days? You click on a link and wait and wait, and then wait some more, for the content to trickle in. If nothing has happened after ten seconds or so, your impatient correspondent hits the browser’s stop button followed by the reload key. In desperation, he sometimes loads the link into a second or even a third browser tab as well, and bombards the website’s server with multiple requests for the page. If that fails, he gives up in disgust and reads a newspaper instead.


Back in the early days of the internet, when most web users relied on dial-up connections, browsers were crude and web graphics were clumsy GIF files, eight seconds was considered the maximum people would stick around for a page to load. To increase “stickiness”, web designers pared their HTML code to the bone, collated their style-sheet data and JavaScripts into single files for more efficient caching elsewhere on the web, used fewer graphics and embraced the PNG and JPEG picture formats, with their smaller file sizes, as soon as they became available. Compared with text, pictures really were the equivalent of 1,000 words, at least when it came to the time taken to transmit them.



When your correspondent hand-coded The Economist’s first website back in 1994, a typical web page was about 50 kilobytes in size and dial-up modems could transfer no more than three kilobytes a second. To stay under the “eight-second rule”, pictures were kept to a minimum, so no page took more than three or four seconds to begin loading and never longer than 20 seconds to complete. The irony is that, with broadband nowadays more or less everywhere, overall connection speeds have gone up by leaps and bounds, yet the time taken to load web pages seems only to have got longer.


Your correspondent is admittedly near the end of the road for a digital subscriber line (DSL) connection. But even at three miles (5km) from the local telephone exchange, the speed of his broadband connection has inched up over the past few years from 65 kilobytes a second to more than 90 kilobytes a second—as the local line has been tweaked and legacy equipment like echo-cancelling coils removed from its junction boxes.


Sure, he could get 650 kilobytes a second or more from a cable connection. But that would mean ditching his otherwise excellent satellite-TV service. Besides, optical fibre is slowly working its way up his hillside. He could soon have access to the internet at more than six megabytes a second—providing he is prepared to pay $140 a month instead of $21 for his existing DSL connection.


A 70-fold increase in speed for a sevenfold increase in price would seem a bargain. But your correspondent is not sure that more raw speed will solve the glacial loading problem. Even with his wimpy DSL connection, pages are rendered quickly enough once the website’s servers (and all the other computers along the route, plus those used to host adverts, graphics and miscellaneous layout bits) start giving his browser’s request some attention. The trouble is getting their attention in the first place.


Before two computers can exchange information, they have to agree to talk to one another. Under normal conditions, this requires the user’s computer to send a request to the host computer, which then sends a response back to the user. Only after this “handshaking” is complete can the exchange of data commence. The time taken for this round-trip of request and acknowledgment determines the network’s latency.


The latency cannot be less than the distance the electromagnetic signal has to travel divided by the speed of light. For instance, your correspondent’s home in Los Angeles is 400 miles from a colleague’s in San Francisco. In theory, then, the shortest round-trip between the two locations is 4.3 milliseconds. But if you “ping” the other computer, you’ll get a round-trip time of typically 700 milliseconds. That is still pretty quick, but it shows just how much time is spent waiting around for the various servers involved to handle the request.


There are many places along the way where the message can get bogged down. Queues can build up at routing servers that switch data packages along different routes to their destinations depending on the traffic. Worst of all, the DNS (Domain Name Server) computers used by your ISP can be overwhelmed as they try to translate the names of all the websites subscribers want to visit (say, www.economist.com) into their actual internet addresses (216.35.68.215). If you know it, try using the website’s numerical address rather than its verbose URL (Universal Resource Locator) name. That can sometimes halve the response time.


The bottlenecks—whether at the DNS translators, the routing computers or the host’s own servers—stem largely from the way the mix of internet traffic has changed faster than the infrastructure used to carry it. Websites that were once just 50 kilobytes of text and tiny pictures now come with music, video and animated graphics. YouTube, Hulu, iTunes and BitTorrent have much to answer for.


It is even worse on the mobile phone companies’ proprietary networks. Carriers are struggling to keep up with demand as subscribers use their smart-phones to check Facebook, stream videos from YouTube and play interactive games. Where a mid-range smart-phone would consume about 100 megabytes of data a month, more advanced models like the Apple iPhone or Motorola Droid, with fully fledged browsers and access to thousands of downloadable applications, tend to consume over 500 megabytes a month. With the imminent arrival of tablet computers like the iPad, which come with wireless modems, the appetite for downloadable data could hit a gigabyte a month (see the lead story in this week’s Business section).


And this is just the beginning. On the internet, the average latency for corporate websites in America is currently around 350ms, according to the Network Weather Report operated by the University of California, Los Angeles. Google’s latency is 150ms, Facebook’s 285ms and YouTube’s 515ms. Such latencies will have to come down considerably if the next generation of internet applications, such as telepresence, high-definition video streaming and remote surgery, are to fulfil their promise.


The future is beckoning. Netflix has just announced an on-demand video-streaming service offering full high-definition picture quality (so-called 1080p, which has 1,080 lines in its picture) with 5.1-channel surround sound. Each stream being watched will require a megabyte a second of bandwidth and a latency of less than 60ms if it is to deliver crisp, pin-sharp video and pristine sound.


For the internet service providers, that means stepping up investment substantially. But adding a lot more routers to the internet would complicate matters hugely and do little to solve the latency problem. If anything, it would actually increase the number of potential bottlenecks.


A better solution might be to light up more of the “dark fibre” installed during the heady days of the dotcom boom, but left lying unused beneath the streets since the bubble burst nearly a decade ago. That is what a number of securities firms have been quietly doing. When shaving a millisecond off the time needed to execute automated trades can increase revenue by $100m, there is plenty of incentive to build private optical networks with latencies approaching zero.


Indeed, Google said this week that it was not going to hang around waiting for the telecoms industry to build the new optical web. The company is planning a low-latency fibre network that will be capable of delivering speeds of over 100 megabytes a second for communities of 50,000-500,000 people. With luck, other internet service providers everywhere will get the message.

_M#]

[Economist] 문 앞의 곰 무리 (Bears at the door)

Bears at the door


Jan 7th 2010 | ESPOO
From The Economist print edition


Can the world’s largest handset-maker regain the initiative?
세계 최대의 핸드셋 제조사가 다시 주도권을 잡을 수 있을까?


Illustration by Claudio Munoz


ASK Finns about their national character and chances are the word sisu will come up. It is an amalgam of steadfastness and diligence, but also courage, recklessness and fierce tenacity. “It takes sisu to stand at the door when the bear is on the other side,” a folk saying goes.


핀란드 사람들에게 그들의 국민성에 대해 물어보면 아마 십중 팔구는 “sisu”라는 단어를 언급할 것이다. 그것은 확고함과 근면함이자 또한 용기, 무모함, 저돌적인 집요함 등을 나타낸다. 한 민요에는 “문 마주편에 곰이 서있을때는 sisu를 가져라” 라는 구절이 있다.


There are plenty of bears these days at the doors of Nokia, the Finnish firm that is the world’s biggest maker of mobile handsets. Although it is still the global leader in the fast-growing market for smart-phones, its devices are losing ground to Apple’s iPhone and to the BlackBerry, made by Research in Motion (RIM). On January 5th Google took a further step into the market with the launch of the Nexus One, a handset made by HTC of Taiwan that the internet giant will sell directly to consumers, and which runs Android, Google’s operating system for smart-phones.


세계 최대의 핀란드 국적 모바일 핸드셋 제조사 노키아의 문 앞에는 최근 엄청난 수의 곰 무리들이 버티고 서있다. 아직 빠르게 성장하는 스마트폰 시장에서 세계 1등 기업의 위치를 차지하고 있지만, 애플의 iPhone이나, RIM 사의 Blackberry 때문에 노키아의 단말기들은 점점 설 자리를 잃어가고 있다. 1월 5일, 구글은 그들의 스마트폰을 위한 운영체제 안드로이드를 탑재하고 대만의 HTC사에 의해 제조되는 소비자 직접 판매 방식의 Nexus One 단말을 런칭하면서 스마트폰 시장에 한걸음 더 다가섰다.


Especially in America, where Apple and RIM reign supreme in the smart-phone market, many already see Nokia as a has-been. Developers are rushing to write programs for the iPhone and for Android, but shun Symbian, Nokia’s rival software platform. And Nokia’s efforts in mobile services, mostly under its Ovi brand, have yet to make much headway.


애플과 RIM이 스마트폰 시장의 절대 강자로 군림하는 미국에서 노키아는 이미 한물 간 것으로  취급된다. 개발자들은 노키아의 소프트웨어 플랫폼 심비안을 버리고 iPhone과 안드로이드를 위한 프로그램을 만들기 위해 몰려들고 있다. 대부분 Ovi 브랜드를 통한 그들의 모바일 서비스를 위한 노력은 아직도 갈길이 멀다.


When the company makes headlines these days, it is thanks to the patent lawsuits it has filed against Apple, which many have interpreted—perhaps unfairly—as an admission of commercial defeat. The latest suit, filed in late December, asks America’s International Trade Commission to ban various Apple products, including the iPhone, from entering the country.


노키아가 애플을 상대로 제기한 특허 소송 때문에 연일 헤드라인을 장식하는데, 이는 공정치 않지만 상업적 패배의 시인이라고 해석된다. 가장 최근인 작년 12월의 소송은 미 국제 무역 위원회에 iPhone을 포함한 애플의 상품들을 미국으로 들여오는 것을 금지 시키라고 요청했다.


Nokia beats Apple in annual sales ($57 billion versus $37 billion) and market share in smart-phones (39% versus 17%), but it is much less profitable. In fact, Nokia’s share of industry profits fell from 64% in 2007 to 32% in 2009—not much more than Apple’s and less than RIM’s, according to Brian Modoff, an analyst with Deutsche Bank. Small wonder that Nokia’s market capitalisation is barely a quarter of Apple’s.


노키아는 연 판매량(570억불 vs 370억불)과 스마트폰 시장 점유율(38% 대 17%)에서 애플을 앞질렀지만, 수익률 면에서는 훨씬 좋지 않다. Deutsche Bank의 애널리스트 Brian Modoff에 따르면 사실 노키아의 산업 수익 점유율은 2007년의 64%에서 2009년의 32%로 떨어졌고 이는 애플보다 압도적이지 않고 RIM보다 적다. 노키아의 시장 투자 시가총액이 겨우 애플의 1/4이라는 것은 놀라운 것도 아니다. 


Yet in Nokia’s headquarters in Espoo, near Helsinki, morale is far better than one might expect. Hardly anyone would deny that there are problems. But executives insist that they can be overcome. When board members met financial analysts in December, they made some bold predictions. Within a year, promised Olli-Pekka Kallasvuo, the firm’s boss, the ageing Symbian software will have been vastly improved, to enable Nokia to offer “magic devices”. As for services, the goal is to have signed up 300m users by the end of 2011. “I’ve rarely heard such explicit statements,” says Ben Wood of CCS Insight, a long-time Nokia watcher.


아직 헬싱키 근처, 노키아의 본사가 위치한 ESPOO에서의 사기는 예상 된 것보다 훨씬 낫다. 누구도 문제가 있다는 것을 부정하지는 않는다. 하지만 임원진들은 그들이 극복할 수 있다고 주장한다. 12월, 이사회 멤버들이 재무 애널리스트들을 만났을 때, 몇가지 호기로운 예상을 했다. 노키아의 사장 Olli-Pekka Kallasvuo는 1년 이내에 오래된 심비안 소프트웨어를 대대적으로 발전시켜 노키아에서 “Magic Device”를 출시 하겠다고 약속했다. 서비스를 위해서는 2011년 말까지 3억 가입자를 확보하는 것을 목표로 했다. 오랜기간 노키아를 관찰해온 CCC Insight의 Ben Wood 는 “그렇게 확고한 단언을 들어본 적이 별로 없었다.”로 말했다.


Nokia has overcome many crises in the past. In 1995 poor logistics caused it to stumble. It responded by developing one of the world’s most efficient supply chains, capable of churning out some 1.2m handsets a day. A decade later it failed to anticipate the demand for “clamshell”-type handsets, but bounced back quickly to restore its market share in handsets to 40% and thus its industry dominance.


노키아는 많은 위기를 극복해 왔다. 1995년에는 물류의 문제가 회사를 휘청이게 만들었다. 이의 결과로 하루에 120만개의 핸드셋을 생산할 수 있는 세계 최고의 공급망을 구축하게 되었다. 10년 후에는 폴더 타입의 핸드셋에 대한 수요를 예측하는데 실패했지만 곧 반등하여 40%의 시장 점유율을 회복할 수 있었고, 산업을 여전히 지배할 수 있었다.


But this time the problems go deeper. In more than one way, Nokia has to become a different company, says Jay Galbraith, a management expert. Until now, it has excelled in making and distributing hardware. This has trained the organisation to focus on planning and logistics. Deadlines are often set 18 months in advance. Teams developing a new device also work in relative isolation and even competitively, to make each product more original. And although Nokia has always done a lot of market research and built phones for every conceivable type of customer, it sells most of its wares to telecoms operators and designs its products to meet their demands.


하지만 이번 문제는 더 심각해 보인다. 매니지먼트 전문가 Jay Galbraith 는 노키아가 여러가지 방법을 통해 새롭게 거듭나야 한다고 말한다. 지금까지 노키아는 하드웨어의 제작과 유통에 뛰어남을 보여왔다. 이것은 조직을 계획과 물류에 초점을 맞추도록 훈련시켜 왔다. 데드라인은 보통 18개월 정도의 미래에 설정되었다. 고유성을 위해서 팀들은 상대적으로 독립적이고 또 경쟁적으로 새로운 제품을 만들었다. 비록 노키아는 많은 시장 조사를 하고 소비자들의 취향에 맞는 타입의 핸드폰을 만들었지만, 그들 제품 대부분은 통신사에 판매 되었으며 그들의 요구에 맞게 디자인 되었다.


With the rise of the smart-phone, however, software and services are becoming much more important. They require different skills. Development cycles are not counted in quarters and years, but in months or even weeks. New services do not have to be perfect, since they can be improved after their launch if consumers like them. Teams have to collaborate more closely, so that the same services and software can run on different handsets. Nokia also has to establish a direct relationship with its users like Apple’s or Google’s.


하지만 스마트폰 시장의 성장에 따라 소프트웨어와 서비스의 중요성이 부각되었다. 이를 위해서는 다른 기술이 필요하다. 개발 주기는 연, 분기 단위로 셈되지 않고, 월, 심지어 주단위를 필요로 한다. 서비스는 완벽할 필요가 없다. 왜냐하면 소비자들이 좋아하기만 한다면 런칭 이후에도 개선될 수 있기 때문이다. 같은 서비스나 소프트웨어가 다른 핸드셋에서도 구동되게 하기 위해서 팀들은 더 긴밀하게 협력해야 한다. 또한 노키아는 구글이나 애플처럼 그들의 고객과 더 직접적인 관계를 형성해야 한다.


To Nokia’s credit, it anticipated the shift to software and services much earlier than other handset-makers. It launched Ovi in 2007, almost a year before Apple opened its highly successful App Store. A few months later, Nokia bought Navteq, a maker of digital maps, for a whopping €5.7 billion (then $8.1 billion), to be able to offer better location-based services. Shortly thereafter, Nokia launched Comes With Music, an innovative pairing of a handset with a digital-music subscription.


노키아의 명성대로, 그들은 소프트웨어와 서비스로의 이동을 다른 핸드셋 제조사보다 훨씬 빨리 예상했다. 애플이 대단히 성공적인 앱스토어를 오픈하기 거의 1년전인 2007년에 그들은 Ovi를 선보였다. 몇 달 후 노키아는 더 나은 위치기반 서비스 제공을 위해 디지털 지도 제작사인 Navteg을 57억 유로(81억 달러)라는 터무니 없는 가격에 인수했다. 그 직후 노키아는 핸드폰과 디지털 음악 서비스 가입을 묶은 혁신적인 “Comes with Music”을 선보였다.


These efforts have not been great successes, although Nokia says that 86m people now use its various services. The firm is still working at bundling a selection of them into a neat package that is easily accessible from its handsets. Moreover, most of its offerings have to compete against popular incumbents, such as Facebook, Apple’s iTunes store and Google Maps. To further complicate matters, telecoms operators are reluctant to let Nokia offer services directly to their customers, since they want to do the same.


비록 노키아가 밝힌대로 8천 6백만의 사람들이 그들의 다양한 서비스를 이용하고 있지만, 이러한 노력들은 대단한 성공을 거두지 못했다. 노키아는 아직도 이들을 선별해서 그들의 핸드셋에서 쉽게 접근할 수 있는 정돈된 패키지를 만드는 작업을 하고 있다. 게다가, 그들이 제공하는 서비스 대부분은 페이스북이나 애플의 iTunes, 구글 맵 같은 인기있는 서비스들과 경쟁해야 한다. 한층 더 복잡한 것은, 통신사들이 노키아가 그들의 서비스를 고객에게 직접 제공하는 것을 꺼려한다는 점이다. 왜냐하면 그들도 똑같은 것을 하고 싶어하기 때문이다.


Worse, while dealing with these problems, Nokia has seemed to neglect its main business. The first version of its flagship smart-phone, called the N97, was a let-down. It has as many bells and whistles as a Swiss army knife, says Carolina Milanesi of Gartner, a market-research firm, but its software, based on Symbian, makes them almost impossible to use. “It is like having a Ferrari body with a Fiat Cinquecento engine inside,” she says.


더욱 안좋은 것은 이러한 문제들을 처리하느라 노키아가 그들 본연의 일을 망각하고 있는 것 처럼 보인다는 것이다. N97라 불리는 그들의 플래그쉽 스마트폰의 첫번째 버전은 실망스럽다. 그것이 스위스 아미 칼처럼 많은 벨과 휘슬을 가지고 있지만,  심비안에 기반한 탑재 소프트웨어는 그들을 사용하는 것을 거의 불가능하게 만든다고 시장 조사 기관 Gartner의 Carolina Milanesi는 말했다. 그녀는 “마치 패라리의 차체에 Fiat Cinquecento의 엔진을 장착한 것과 같습니다.” 라고 말했다. (역주: Fiat Cinquecento는 최대 1100cc의 배기량을 가진 소형차)


Last February Nokia’s management kicked off what is internally known as a “transformation project” to address all these concerns. “We needed to move faster. We needed to improve our execution. And we needed a tighter coupling of devices and services,” explains Mary McDowell, Nokia’s chief strategist. The firm has since introduced a simpler internal structure, cut its smart-phone portfolio by half, ditched weaker services and begun to increase Ovi’s appeal to developers by allowing them to integrate Nokia’s services into their own applications. While giving Symbian a makeover it is also pushing a new operating system, called Maemo, for the grandest, computer-like smart-phones.


지난 2월 노키아의 경영진은 이러한 모든 문제를 해결하기 위해 내부적으로 “변화 프로젝트”라 불리는 것을 시작했다.  “우리는 더 빠르게 움직일 필요가 있습니다. 우리는 업무 수행을 향상시킬 필요가 있습니다. 그리고 우리는 기기와 서비스를 더 긴밀히 연결시킬 필요가 있습니다.” 노키아의 최고 전략 담당 Mary McDowell 이 설명했다. 내부 조직이 간결하게 정비된 탓에, 그들의 스마트폰 단말 종류를 절반으로 줄이고, 취약한 서비스는 중단하고 개발자들에게 Ovi를 통해 노키아의 다른 서비스를 쉽게 이용해서 어플리케이션을 제작할 수 있게 해서 이를 더 매력적으로 보이도록 했다. 컴퓨터와 같은 멋진 스마트폰을 위해심비안을 새 단장하고 이를 Maemo라 불리는 새로운 운영체제로 계량하고 있다.


All this will no doubt help Nokia come up with better, if not magic, products. The firm may even reach its goal of 300m users by the end of 2011 because its efforts are not aimed just at rich countries, but at fast-growing emerging economies where Nokia is still king of the hill, such as India. There, services such as Nokia Money, a mobile-payment system, and Life Tools, which supplies farmers with prices and other information, fulfil real needs, says John Delaney of IDC, another market-research firm.


이러한 모든 것들이 노키아가 더 좋은 제품을 만들 수 있게 하리라는 것에 대해서는 의심의 여지가 없다. 선진국 뿐 아니라 인도 같은 빠르게 성장하는 개발 도상국에서의 제왕적인 위치 덕택에 노키아는 2011년 말까지 3억 이용자라는 목표를 달성할 수 있을 것이다. 또 다른 시장 조사 기관 IDC의 John Delaney는 인도에서의 모바일 결제 시스템인 Nokia Money 나, 농부들에게 가격등의 정보를 제공하는 Life Tool 같은 서비스들은 실제 사용자 요구를 만족 시킨다고 말했다.


Yet it is an entirely different question whether Nokia will manage to dominate the mobile industry once more—not just by handset volumes, but by innovation and profits. The example of the computer industry, in which the centre of gravity began shifting from hardware firms to providers of software and services over two decades ago, is not terribly encouraging: of the industry’s former giants, only IBM really made the shift successfully. Then again, Nokia has reinvented itself many times since its origin in 1865 as a paper mill. That, points out Dan Steinbock, the author of two books on the firm, is thanks not only to sisu, but also to a remarkable willingness to embrace change and diversity. Nokia will need those traits in the years ahead.


하지만 노키아가 핸드셋 판매량이 아닌 혁신이나, 수익률 측면에서 다시한번 모바일 산업을 지배하게 될지는 완전히 다른 문제이다. 산업의 중심이 하드웨어 기업에서 소프트웨어와 서비스를 제공하는 기업으로 이동했던 20여년 전의 컴퓨터 산업에서의 예는 상당히 고무적이다. 예전의 거대 기업이었던, IBM 만이 이러한 이동을 성공적으로 수행했다. 그리고 또한, 노키아는 종이 공장이었던 1865년의 설립이래 많은 자기 혁신을 이뤄 왔다. 이러한 것은 “sisu” 뿐이 아닌 변화와 다양성을 포용하는 놀랄만큼의 열성 덕택이라고 노키아에 대한 2권의 책의 저자 Dan Steinbock은 지적했다. 노키아는 미래에는 이러한 특성들이 필요하다.