2012年4月25日水曜日

Big Data 透ける個人情報

Big Data解析で個人情報が透けるようだ。
 米政府は、“ビッグ・データ”の利活用を目的とした研究開発(R&D)
イニシアチブを発表した。2億ドル超の巨額を投じることにより、6つの
政府機関が政府による大規模デジタル・データの管理/分析を支援する。

OSTP The White House Office of Science and Technology Policy
・Big Data Research and Development Initiative
 巨大データの収集/保管/管理を可能にするため、ビッグ・データに
 関連する最新技術の構築に取り組む。科学と工学分野における新たな
 知見の導出や、国家安全保障と教育の向上にビッグ・データの技術を
 利活用する狙い。
・情報技術の研究開発に対する、政府のこれまでの投資によって、
 スーパーコンピューティングとインターネットの創造の飛躍的な進歩
 につながった。それと同様に、われわれが今日から始めるこの取組み
 によって、科学的発見、環境/生物医学研究、教育、国家安全保障に
 対するビッグ・データの活用能力が変化していくことになる

DAPRA
・研究に年間2,500万ドルが投資
・テキスト文書やメッセージ・トラフィックなど非構造化データを含む
 大規模データを分析する手法を開発

ビッグデータ解析は、多変量解析とデータマイニングのどちらだろうか。
報道を見る限り、経済に関しては、多変量解析、人間に関しては、データ
マイニングのように見える。

クレジットカードや加盟会員情報から、個人情報を把握することが問題
視されているが、現在ではまだ、会社間の連携が無いだけ、個人情報が
ぶつ切りの状態。「ベビーフードと衣類のクーポンが届けたことで、
親より早期に妊娠を知った業者」の話は、まだ氷山の一角。
個人信用情報に関しては、機関の連携があり、一部は完全に透けて見える。

米国では、NYテロ事件で治安維持関係者が情報を得ていながら、事件を
未然に防ぐことができず、長官が更迭されたことがあった。
後日、情報を確認するとテロリストや事件の情報をいくつかの機関から
得ていたと言われた。膨大なデータを少数の人数では分析できないと
批判され、コンピュータ分析を進めるとの報道もあった。
また、数年前から、米国内で監視ネットワークを構築を始め、指紋、顔、
自動車登録番号標、携帯電話等と個人情報が連携すると言われている。

NY警察が、殺人未遂事件の写真資料とSNSサイトの写真を照合し、容疑者
を逮捕。自身で開示した情報が元になったようだ。
SNSサイトは個人情報の売買が多く問題化している。。

クラウドコンピュータも国籍を越えた情報管理をしており、ビッグデータ
と共に、国家支援による経済・技術を優先させ、個人はおざなり。
最近は、不信を招かないように、報道マニュアルまで存在するようだ。

「くらしと経済の基盤としてのITを考える研究会」報告書

米国家情報長官更迭
DNI 諜報活動のゴッドファーザ就任
米政府 国民監視ネットワーク構築へ


---The Big Deal About Big Data---
Posted by: Judith Hurwitz on April 23, 2012
http://www.businessweek.com/articles/2012-04-23/the-big-deal-about-big-data

We are in the midst of a “Big Data” revolution. But there is so much hype around this buzzword that it has become what I call a lemmings market: Every tech company on the planet now claims to have a solution for analyzing the mammoth amount of data businesses generate-and need to collect. No wonder top managements find it so difficult to figure out exactly what their companies should do about this trend.

The big deal about big data is that it offers the ability to take huge volumes of data and pick out the important patterns and trends-without having to know the right questions to ask. This is key because the amount of information companies must deal with has grown exponentially and changed in unprecedented ways: Data now come from social networks, images, sensors on all sorts of equipment, and the myriad systems that keep track of Web transactions from supply chain management to consumer sales-to name just a few.

In decades past, information was organized, or “structured,” in a database so managers could get reports about the state of their business by asking such straightforward questions as, “What were last year’s sales by region?” If you didn’t know what to ask, or phrased the request improperly, good luck getting something meaningful.

Enter the big data era. Imagine you’re a retailer and want to plan your strategy for the coming year. Of course you need to understand what products sold well last year. But that’s not enough to give you a competitive edge these days. A smart retailer will make use of all the information relevant to the business-sales data, chatter on social networking sites, information from partners and suppliers, as well as publicly available data. Understanding all this information can mean the difference between anticipating an issue before it can derail sales and explaining why you missed your sales target.

This unstructured data (without a defined structure such as text, images, videos, etc., that you will not find in a traditional database), much of it generated by the Web, is growing in importance to how businesses will compete in the coming decades. But there is no simple way to get at the essence of what this amalgamation of sources can mean. That is why managers must be skeptical and make sure the technology and companies offering solutions are not simply relabeling a traditional product as a big data solution. The real thing is emerging and will be an essential business tool.

How can you recognize the real thing? It may not be easy, but here three questions to ask:

* Can the product easily handle huge volumes and a variety of types of data in real time or near real time?
* Has the same product been available for a few years under a different name? A little detective work will turn up the answer.
* Who are the innovative technologists responsible for the product, and what is their experience?


---Big Data age puts privacy in question as information becomes currency---
Aleks Krotoski
guardian.co.uk, Sunday 22 April 2012 14.30 BST
http://www.guardian.co.uk/technology/2012/apr/22/big-data-privacy-information-currency?newsfeed=true

Exploiting Big Data's opportunities will need a delicate balance between the right to knowledge and the right of the individual

This month, the US chain Walmart bought the startup Social Calendar, one of the most popular calendar apps on Facebook, which lets users record special events, birthdays and anniversaries. More than 15 million registered users have posted over 110m personal notifications, and users receive email reminders totalling over 10m a month.

Of course, when a Social Calendar user listed a friend's birthday or details of a holiday to Malaga, she or he probably had no idea the information would end up in the hands of a US supermarket. But now it will be cross-referenced with Walmart's own data, plus any other databases that are available, to generate a compelling profile of individual Social Calendar users and their non-Social Calendar-using friends.

The second decade of the 21st century is epitomised by Big Data. From the status updates, friendship connections and preferences generated by Facebook and Twitter to search strings on Google, locations on mobile phones and purchasing history on store cards, this is data that's too big to compute easily, yet is so rich that it is being used by institutions in the public and private sectors to identify what people want before they are even aware they want it.

The most important thing for data holders in the Big Data age is the kind of information they have access to. Facebook's projected $100bn value is based on the data it offers people who want to exploit its social graph. Its holdings include more than 800m records about who's in a user's social circle, relationship information, likes, dislikes, public and private messages and even physiological characteristics.

Google's recent privacy policy change has integrated the various accounts an individual maintains, creating a single profile that includes intentions from its search engine and the connections identified from its social network Google+; preferences and interests from mail, documents or YouTube; and location from its maps and mobile phone operating system.

Aggregated, this data can prove powerful. "Given enough data, intelligence and power, corporations and government can connect dots in ways that only previously existed in science fiction," said Alexander Howard, government 2.0 correspondent at the technology publisher O'Reilly Media.

In a trend that is remarkably similar to the plotline of Philip K Dick's Minority Report, Big Data is being used to predict social unrest or criminal intent. For example, Pax, an experimental system developed by the documentary maker and historian Brian Lapping, predicts the conditions for uprisings using aggregated search terms in different regions of the world. The analysed intelligence is then sold to governments, which can act accordingly.

The systems used to parse, synthesise, assimilate and make sense of the information are starting to make sophisticated connections and learn patterns. Big Data proponents view this as an opportunity to observe behaviours in real time, draw real-time conclusions and affect real-time change. Yet their conclusions can trip into areas that require human sensibilities to truly understand their implications.

In one recent high-profile example, a Minneapolis man discovered his teenage daughter was pregnant because coupons for baby food and clothing were arriving at his address from the US superstore Target. The girl, who had not registered her pregnancy with the chain, had been identified by a system that looked for pregnancy patterns in her purchase behaviour. "Data can say quite a lot," said Howard. "Though one has to be very careful to verify quality and balance it with human expertise and intuition."

In an infamous case in 2006, anonymised search terms released into the public domain by AOL were quickly de-anonymised, identifying individual searchers. And last month, police in New York used a photo from Facebook in combination with their own photo files and facial recognition software to arrest a man for attempted murder.

"People give out their data often without thinking about it," said the European commission vice-president Viviane Reding. "They have no idea that it will be sold to third parties." So users continue to populate databases such as Social Calendar with increasingly valuable personal information that, as commercial property, can be transferred to a new company with a different privacy ethos.

Privacy is not about control over personal data, according to the web theorist Danah Boyd, but the control individuals think they have. "People seek privacy so that they can make themselves vulnerable in order to gain something: personal support, knowledge, friendship," she said at the WWW conference in 2010. Increasingly, people are gaining services that deliver value, relevance and connection - as Google and Facebook do - in exchange for their personal information.

Expectations of privacy are being renegotiated. "When I grew up in Greensborough, Alabama, the population was 1,200," said Jim Adler, chief privacy officer and general manager of data systems at the information commerce firm Intelius. "If you cut school, everyone knew it by dinner. The expectation of privacy was low.

"Now, the expectation of privacy that we've had before Big Data, and our parents had, has been pulled away."

To some degree, this is happening because web users and web developers may not share a universal sense of what is and what is not private. As Boyd put it, privacy is contextual. An individual may be willing to share what they had for breakfast on Twitter, divulge where they are via FourSquare or record every keystroke made on their computers since 1998, but they wouldn't want information about their health or their children's whereabouts made public.

It becomes even more complicated when the users of software systems and architectures are a global population but the privacy expectations have been put in place by primarily US services. "Our expectations of privacy in the US versus Europe are very different," said Adler. "We are currently negotiating which is more important: the rights of the individual or the rights of knowledge."

In the EU, Reding has campaigned for the "right to be forgotten", already part of the 1995 data protection directive, which establishes by law that private data is the property of the individual and must be deleted from a system on request at any time. "More and more people feel uncomfortable about being traced everywhere, about a brave new world," she said. Information held by public bodies, however, remains exempt.

Reding's motivation is primarily to maintain a business ecosystem friendly for foreign investment. "This isn't about the reputation of the individual," she explained. "It's about the reputation of the companies. Data is their currency.

"What we're aiming for is privacy by design," she said. Companies should initiate a hallmark system that informs users that the privacy policy adheres to the guidelines. This, she argued, would ensure that people continue to share their data.

Sceptics like Adler argue that the right to be forgotten is flawed because it ignores how social boundaries are currently being negotiated in the Big Data world. "The ability to delete personal information means that you lose the potential for lessons learned," he said. "If you can step away and erase something someone says that is stupid or hurtful, you lose an element of accountability."

Yet if, as Reding maintains, 80% of British citizens are already concerned that data held by companies will be used for purposes other than the reason it was collected, there may be a shift in how much information people are willing to share.

The weakest link is the technology itself. The Target pregnancy case demonstrates that machines can pick up patterns in ways that may have unexpected consequences for individuals. The people who design the systems that collect and analyse the data are now responsible for thinking about data privacy and projecting future outcomes, and may - because they're human - get it wrong.

"These technologies are as neutral as guns," said Adler. "The Big Data guys who want to send you coupons when you're pregnant - because they're nerdy and technologists - probably don't realise that pregnancy is a sensitive issue." And sensitivities shift throughout an individual's lifespan and, more broadly, social norms shift over time.

Fundamentally, privacy means the same thing in an era of Big Data as it always has, but the capacity of machines to capture, store, process, synthesise and analyse details about everyone has forced new boundaries. It is unlikely that people will stop sharing data in exchange for services that are viewed as valuable.

Big Data offers undeniable opportunities, but requires a delicate balance between the right to knowledge and the right of the individual. Privacy norms will demand that new systems of trust be built into technology design.


----ビッグデータで行動に役立つ情報を」、AITCが実証システム開発へ---
2012/04/13
高下 義弘=ITpro
http://itpro.nikkeibp.co.jp/article/NEWS/20120413/390860/

 先端IT活用推進コンソーシアム(AITC)は2012年4月13日、ビッグデータの効果と活用方法を示すための実験プロジェクト「Project LA (Leads to Action)」を開始すると発表した。
 この実験プロジェクトでは、ビッグデータを使った実証型のシステムを構築する。具体的には個人向けの災害対策用アプリケーションを想定。災害時の避難や被災回避に役立つ情報を提供できるようにするという。ソーシャルメディアの情報や、公共機関やマスメディアなどの情報といった、インターネットや社会に流通しているさまざまなデータを取り込んで分析。その分析結果をもとに、避難などの行動を起こす際のヒントを提示する。
 プロジェクトには産業技術総合研究所と消防庁消防研究センターも協力する。両組織は、気象庁防災情報XMLのデータをはじめとした各種データの活用方法やシステムの構築方法などについてAITCに助言する。詳細については今後決定する。
 実証システムの開発は2012年12月までに一通り完了させる予定。2013年1月からはAITCの会員に実証システムを公開してフィードバックを得る。2013年3月をメドに実証システムの一般公開を目指す。
 具体的な内容は、4月20日に開催される「AITC Day 2012(先端IT活用推進コンソーシアム 第2回中間活動報告会)」で説明するとしている。


---ビッグデータ時代到来 企業に求められる3つのスキル---
2012年04月12日 08時00分 更新
http://www.itmedia.co.jp/enterprise/articles/1204/12/news011.html

本稿では、データ分析をビジネスに活用する上で必要なスキルを洗い出し、企業における効果的なデータ活用のあり方を検討します。
[中林紀彦,日本アイ・ビー・エム]

 「ビッグデータ」がIT分野のキーワードとして大きくクローズアップされ、その分析による活用がビジネス的な効果として注目を集めています。一方で、IT技術、既存の組織や人材スキルでは解けない課題も徐々に浮き彫りになってきています。それは“データを分析してビジネスにつなげるスキル”です。
 このコラムでは、データ分析をビジネスに活用するために必要なスキルを洗い出し、どのようなアプローチを取ることで企業における効果的な情報活用を実現できるかを考えます。また、国内外の先進的な事例も紹介します。

3つのスキル
 では、さっそくビッグデータ時代において企業に求められるスキルを見ていきましょう。
ビジネススキル
 ここでいうビジネススキルとは、仕事で成果を上げる能力ということよりも、ビジネスのプロセスを標準化して理解し、各プロセスでどのような情報がインプット、生成されるかを理解する能力です。
 営業活動を例に取ってみましょう。通常、イベントやキャンペーンの販促活動によるアンケートなどから見込み顧客となりそうな顧客リストがCRM(顧客関係管理)システムに登録され、その情報を元に営業担当者が営業活動を行います。ここでは顧客の属性や興味のある製品、サービスなどがデータとしてCRMシステムにインプットされます。次に顧客が製品などを購入したら、決済システムに決済情報が、物品であれば物流システムに物流情報が入力、生成、記録されていきます。このように、どのプロセスのどういった活動によってデータが生成されていくかということを理解していることが大切です。
 加えて、どのプロセスが、もしくは、どのプロセスで作られるデータがビジネスの結果に大きな影響をもたらすかということを、感覚的にでも理解していることが、データを分析しモデル化する上で重要となります。例えば、顧客属性の中で年齢と性別よりも職業の方が購買確率に大きく影響を与えているなどということです。

数学的スキル(モデル化、パターン化)
 次に重要になのが、データを分析するための数学的なスキルです。これまでビジネスデータの分析スキルといえば、集計や平均値、標準偏差などを求めるような単純な統計学の力が中心でしたが、これから必要となるのはデータの集合からビジネスの法則を見つけ出す“モデル化”や“パターン化”のスキルです。科学の世界では一般的な手法であり、例えば、理想気体の状態方程式「 PV=nRT」は、気体の状態をモデル化し数式で表して一般化しています。
 同様に、ビジネスの世界でも、ビジネス活動の状態をモデル化し数式化する分析スキルが求められています。例えば、あるスーパーチェーンで店舗の立地やこれまでの売上実績、天候、気温、曜日から、集客数や商品ごとの売上金額が計算できるような数式を導き出すことができれば、適切な人員シフトを作成したり、商品をロスなく仕入れたりと、利益の改善が見込めます。

ITスキル
 ITスキルも欠かせません。まずはデータベースに関するスキルです。分析に必要となるデータがどこに保管されていて、AGEやJOBといったデータベースの項目が実際のビジネス用語とどう結び付けられているのかという基本的なことは、最近のITツールでかなり実現できるようになっています。しかし、業務ごとにビジネス用語が統一されていなかったり、データベースがバラバラだったりするのが多くの企業での現状ですので、まだ人に頼る部分も多いといえます。
 今後さらに必要になるのは、モデル化された数式を、ITを使って解く力です。例えば、ある商品の売上金額が顧客年齢に比例するというモデルがあるとします。これは、[売上金額]=α x [年齢] という数式で表せますが、係数αが何かを求めるためにはITを使って方程式を解く必要があります。これはごく簡単な線形回帰モデルですので、データ量が少なければExcelなどの表計算ソフトを使ってαを求めることができますし、SPSSやRなど専用の統計分析ソフトを使って導くことも可能です。数式がもっと複雑な場合にはプログラムを作成して係数を解析する必要がありますので、そうしたスキルを持ったITエンジニアが重宝されるでしょう。

必要な人材は社内にいる!
 以上、3つのスキルを紹介しましたが、残念ながらこのスキルを全部持つスーパーマンのような人材は日本企業では皆無と言ってよいでしょう。ではこうしたスキルを持った人材をどのようなアプローチで育成すればよいのでしょうか。
 いずれのスキルもかなりの専門性が必要とされるものであり、一朝一夕に身に付けられるものではありません。しかし実は、ビジネススキルをもった人材はそれぞれの事業部門にいますし、ITスキルを持った人材は情報システム部門にいます。
 一見難しそうな数学的スキルは、実は理系の大学院で研究経験がある人であれば備えていることです。物理学、化学、工学といった分野では自然科学における事象を数式化し、より精度の高いモデルをつくることを研究テーマとしていることが多く、中には計算シミュレーションなどを併用した研究経験を持つ人材もいますので、自然科学の事象をビジネス活動に置き換えるといった応用が可能です。
 これらの人材を企業の幅広い部門から集めて、データ分析の専門チームとして組織化することが、今すぐにでも始められることではないでしょうか。そして、経営企画や事業企画など、企業の戦略により近い部門の中に設置することで、これからの企業競争優位を支える仕組みとなるはずです。

小さな取り組みから始めよう
 いち早くこのような情報分析に取り組む企業では、ビジネス素養を備えたIT担当、もしくは、ITスキルを備えた業務担当という、今までは対極と思われていたスキルセットの歩み寄りが始まっています。これによって、ビジネスデータの意味を把握し、そこから次の価値をどう生み出すかを検討できる、かつ、ソフトウェアを使いこなすことでそれらを効率的、効果的に進めることが可能という具合です。
 数学的スキルの習得は多少ハードルが高いと思うかもしれませんが、ソフトウェアを活用すれば課題を解くことと数学を読み解くことを分離できます。皆さんの手元にある表計算ソフトでも単純な回帰分析が可能ですし、さらに高度な分析ソフトウェアを用いれば、インプットの数字の羅列から、分析手法や最適な数式モデルを推奨する機能を持つものもありますので、数学的スキルの不足を補うことができます。
 実際、既に分析への投資を実施して、ビジネス成功を収めている企業もあります。海外では、ビッグデータ分析をビジネスで活用しているデンマークの風力発電機の設計、製造、販売会社であるVestas Wind Systemsなどは会社全体で組織的な取り組みを継続的に行うことで成功を収めています。組織化することで継続性が増し、より効果的に分析を活用することができるようになります。
 日本でも、ビジネス課題を持つITエンジニア数人がビッグデータ分析をプロジェクト化して成果を上げつつあります。分析に関する数学的スキルの不足部分はIBMのような数理解析チームとビッグデータ分析ソフトウェアを持つベンダーがサポートすることで、前述の3つのスキルをカバーし成果を出すことに成功しています。
 また、100人以上を分析部隊とする専門組織を設置している企業があります。IT側とビジネス側の両方から人材を集めてアナリティクスチームをつくり、実際の作業を通じてトライ&エラーを繰り返しています。その過程を経て小さな成功体験を次に生かしつつ、分析レベルを上げていくことに取り組んでいます。まずは始めてみることで、必要なスキルを備えた人材が育つのです。育成の時間をお金で買うという発想から、最初に専門家を投入するのも一手でしょう。
 大量かつ多様な情報にあふれている現在のビジネス環境において、分析ニーズは必ずどの企業にも存在します。会社としてオーソライズされたデータに基づいて、最新のITツールを器用に使いこなしながら、効率的に高い価値の洞察を得ていくことが企業の差別化につながっていきます。
 本稿ではデータ分析をビジネスに活用するために必要なスキルや組織について述べました。ビッグデータの盛り上がりをきっかけに今一度データ分析について見直している企業も多いかと思いますが、全社を挙げての大きな取り組みとしてスタートしなくても、できるところから今すぐに始める、スモールスタートが肝要です。


---ビッグデータがもたらす利便性と脅威 IPAが報告書公開---
2012年03月30日 16時32分 更新
http://www.itmedia.co.jp/enterprise/articles/1203/30/news073.html

IPAの「くらしと経済の基盤としてのITを考える研究会」が行ったビッグデータを利用したサービスの利点や課題に関する研究結果を取りまとめた。
[ITmedia]

 情報処理推進機構(IPA)は3月30日、ビッグデータを利用したサービスの利点や課題に関する研究成果をまとめた報告書を公開した。IPAが主催する「くらしと経済の基盤としてのITを考える研究会(座長:元橋一之 東京大学大学院教授)」が検討を行ってきたもの。
 報告書は、ビッグデータを利用して新たなサービスの提供を視野に入れる企業の経営者層を対象に、ビッグデータの概要を平易に解説しているほか、先進事例やサービスを実現する上での利点と課題、その解決に向けた取り組みについて、研究会の委員とIPAがそれぞれの視点から切り込んだ論考集となっている。
 ビッグデータを利用したサービスは、ビジネスチャンスの拡大や社会への貢献などが期待される一方、情報漏えいや利用者の意図しない個人情報の収集、悪用などの危険性も含んでいるとされる。報告書ではサービスによる価値創造に不可欠な人材育成やデータの流通性、安全に利用するための信頼基盤の確立といった点などについて言及している。


---米政府、ビッグ・データ活用に2億ドル超投じる――科学技術や国家安全保障での利用を狙う---
2012年03月30日
http://www.computerworld.jp/topics/617/%E3%83%93%E3%82%B8%E3%83%8D%E3%82%B9%E3%83%BB%E3%82%A4%E3%83%B3%E3%83%86%E3%83%AA%E3%82%B8%E3%82%A7%E3%83%B3%E3%82%B9/202070/%25E7%25B1%25B3%25E6%2594%25BF%25E5%25BA%259C%25E3%2580%2581%25E3%2583%2593%25E3%2583%2583%25E3%2582%25B0%25E3%2583%25BB%25E3%2583%2587%25E3%2583%25BC%25E3%2582%25BF%25E6%25B4%25BB%25E7%2594%25A8%25E3%2581%25AB2%25E5%2584%2584%25E3%2583%2589%25E3%2583%25AB%25E8%25B6%2585%25E6%258A%2595%25E3%2581%2598%25E3%2582%258B%25E2%2580%2595%25E2%2580%2595%25E7%25A7%2591%25E5%25AD%25A6%25E6%258A%2580%25E8%25A1%2593%25E3%2582%2584%25E5%259B%25BD%25E5%25AE%25B6%25E5%25AE%2589%25E5%2585%25A8%25E4%25BF%259D%25E9%259A%259C%25E3%2581%25A7%25E3%2581%25AE%25E5%2588%25A9%25E7%2594%25A8%25E3%2582%2592%25E7%258B%2599%25E3%2581%2586

企業や研究大学、非営利機関にも参加をよびかけ
 米政府は3月29日、“ビッグ・データ”の利活用を目的とした研究開発(R&D)イニシアチブを発表した。2億ドル超の巨額を投じることにより、6つの政府機関が政府による大規模デジタル・データの管理/分析を支援する。
 米ホワイトハウス科学技術政策局(OSTP)のBig Data Research and Development Initiative(ビッグ・データに関する研究開発イニシアチブ)は、巨大データの収集/保管/管理を可能にするため、ビッグ・データに関連する最新技術の構築に取り組む。科学と工学分野における新たな知見の導出や、国家安全保障と教育の向上にビッグ・データの技術を利活用する狙いである。
 そうした取り組みの1つとして、米国防高等研究計画局(DARPA)の研究には年間2,500万ドルが投じられる。DARPAは、テキスト文書やメッセージ・トラフィックなど非構造化データを含む大規模データを分析する手法を開発するとしている。
 「情報技術の研究開発に対する、政府のこれまでの投資によって、スーパーコンピューティングとインターネットの創造の飛躍的な進歩につながった。それと同様に、われわれが今日から始めるこの取り組みによって、科学的発見、環境/生物医学研究、教育、国家安全保障に対するビッグ・データの活用能力が変化していくことになる」とOSTPのディレクター、ジョン・ホルドレン(John Holdren)氏は声明で述べた。
 IT業界では近ごろ、ビッグ・データの利活用に関して注目が集まっている。加えて、米国政府は膨大な量のデジタル・データを収集し、保持している。OSTPの政策担当副ディレクターであるトム・カリル(Tom Kalil)氏は、ビッグ・データの利益性を模索するこの取り組みに対する、大学や民間企業の参画をブログ投稿で呼びかけている。
 「政府に対する協力を業界企業や研究大学、非営利機関に呼びかけたい。そして、ビッグ・データが生み出す機会を最大限に活用する方法を模索したい」と同氏は述べ、「当然、政府だけではこれを推進することはできない。オバマ(Obama)米大統領の言う“全員が総力を挙げる”取り組みが必要だ」と語った。
 カリル氏によると、ビッグ・データ関連のコンペティションを後援する企業や、新世代のデータ・サイエンティスト育成コースを開設した大学がすでにあるという。
 OSTPによると、今回のイニシアチブに関与する政府機関としてはほかに、米国立科学財団(NSF)、米国防総省 (DOD)、米エネルギー省(DOE)などの名前が挙げられている。
 米国立科学財団の新しいプロジェクトの中には、カリフォルニア大学バークレー校を拠点とする1,000万ドル規模のプロジェクトがあり、有効な情報へのデータ変換、機械学習、クラウド・コンピューティング/クラウド・ソーシングの3つのアプローチを模索する予定。
 米国立科学財団はまた、地球科学者が地球についての情報を利用し、分析し、共有することを可能にするプロジェクト、「EarthCube」の支援に対する助成金も提供する。
 米国防総省はビッグ・データを利活用し、自立型ロボット・システムを構築することを目標の1つにしている。また、ビッグ・データに関連した一連のコンペティションを数か月内に発表する予定であるとOSTPは述べている。
(Grant Gross/IDG News Serviceワシントン支局)

0 コメント: