... create the virtual
within several ... existing capacities of
in the ...
Problem of creation of machine intelligence mankind заинтересоввалось rather recently, approximately from the middle of the last century. Currently already there are theoretical practices and reasons in the field. It would allow to create artificial reason already today but while everything rests against high-speed performance of the modern means, and often and in their cost.
Recently came across one very interesting development which allows to create a supercomputer to a quantity of participants on the basis of the P2P networks. Development is absolutely free (Open Source) and is available in repositories of top distribution kits of Linux, wears the name CPUShare. The developer of this project is Andrea Arcangeli. The software allows to create the virtual supercomputer within several minutes. This program obsepecheniye works at the majority of widespread equipment rooms and all system (OS) platforms. Project site: http://www.cpushare.com. Be curious, won’t regret spent time.
Use of P2P of networks for implementation of the distributed computation gives conclusive priority – the number of participants can be very big, respectively and computational capabilities can be on orders above existing capacities of supercomputers in the modern data-centers. Besides, in view of decentralization of P2P of a network, this virtual supercomputer will be the most fault-tolerant, i.e. the functionality to remain regardless of if the part of a network fails for any reasons. For example, natural disasters, hostilities, diversions etc. This software as it was mentioned above, can be unrolled on any operating systems (Linux, Unix, Windows), and it will allow to cut down for orders expenses on creation of powerful computing systems, or to make their computational capabilities still big and fault-tolerant. And in case of universal mandatory implementation of a client part of such system, for example, in a number of branches, the departments, the separate enterprises, will allow to finish computational capability to inaccessible before heights.
It also is of interest for normal users, for example, by means of it it is possible to receive necessary additional high-speed performance on unproductive hardware platforms which for some reasons while there is no possibility to replace, for example, computer games. Options there can be a set. And commercial use isn’t excluded, it is possible to lease excessive computational capabilities for a certain board.
Nikitushkin Andrey
On July 07, 2012.
https://nikitushkinandrey.wordpress.com/2012/07/17/supercomputer-on-the-basis-of-p2p-of-networks-one-more-step-on-a-way-to-machine-intelligence-creation/
Меня сегодня поразила одна новость. Еще 13 октября 2012 года я написал статью Voyager 1 покидает ...
В настоящее в время существует огромное количество сетей распределенных вычислений. Я насчитал ...
В настоящее в время существует огромное количество сетей распределенных вычислений. Я насчитал порядка 30. Наиболее крупные — Folding@home, BOINC, SETI@home, Einstein@Home, Rosetta@home (по результатам их вычислений было написано несколько десятков диссертаций). Вычисляют они все, что только можно вычислять распределено — от подбора md5 паролей до симуляции свертывания белка.
Каждая из эти сетей имеет необычно высокую производительность и включает в себя миллионы нодов. Производительность каждой сравнима с производительностью суперкомпьютера.
- Rosetta@home — более 110 Тфлопс
- Einstein@Home — более 355 Тфлопс
- SETI@home — более 560 Тфлопс
- BOINC — более 5.6 Пфлопс
- Folding@home — более 5.9 Пфлопс
- Bitcoin — более 9.4 Пфлопс
Сравните с суперкомпьютерами:
- Blue Gene/L (2006) — 478.2 Тфлопс
- Jaguar (суперкомпьютер) (2008) — 1.059 Пфлопс
- IBM Roadrunner (2008) — 1.042 Пфлопс
- Jaguar Cray XT5-HE (2009) — 1.759 Пфлопс
- Тяньхэ-1А (2010) — 2.507 Пфлопс
- IBM Sequoia (2012) — 20 Пфлопс
А теперь, давайте, подсчитаем существующий неиспользуемый потенциал пользователей интернет:
По расчетам на конец 2010 года пользователей Инернет было около 2000000000 (2 млрд).
Каждый пользователь имеет хотя бы 1 ядро процессора производительностью не менее 8 Гфлопс (AMD Athlon 64 2,211 ГГц).
По нехитрым математическим расчетам производительность такой сети составит:
8 * 109 * 2 * 109
=
16 эксафлопс (10
18).
Такая сеть в
800 раз производительней, чем ещё не построенная IBM Sequoia (2012), в
1700 раз производительней, чем сеть Bitcoin и производительней всех суперкомьютеров и вычислительных сетей вместе взятых! Сейчас число пользователей ПК и Интерент растет, растет и число ядер. Безусловно, это число (16 эксафлопс) идеальное, никто не будет вычислять 24/7, но если каждый пользователь будет вычислять хотя бы 2 минуты в день (что, впринципе, более чем реально), то такая сеть сравнится с IBM Sequoia.
Сейчас распределенные браузерные вычислительные сети на JavaScript более чем реальны.
Читать дальше →