Top.Mail.Ru
Ответы
Аватар пользователя
Аватар пользователя
Аватар пользователя
Аватар пользователя
Информационные технологии
+3

Можно ли в теории скачать весь интернет?

Вопрос задан серьезно. Я беспокоюсь, что вся существующая информация в интернете через несколько десятков лет просто исчезнет. Уже сейчас гугл практически не выдает результаты, сайты, картинки или видео, которые были загружены в 20 веке. Да что там, результаты до 2010 года найти сложно. Но проблема не в том, что поисковики перестают выдавать информацию, которая была загружена десятилетия назад, она просто исчезает. Серверы отключаются, и миллионы сайтов просто погибают каждый день и вместе с ними история. Более того, огромное количество информации стирается или изменяется намеренно в угоду новым стандартам. Я боюсь, что мы потеряем интернет такой какой он есть сейчас, и все все что сейчас существует в огромной сети для потомков не будет существовать. И я подумал, что если законсервировать весь интернет какой он есть сейчас? Скачать все данные что существуют на какой-нибудь огромный носитель и запечатать в каком-нибудь огромном дата хранилище. Я понимаю, что это должно стоить невероятных вложений и усилий, но речь идет о сохранении всей истории человечества на текущем этапе существования, так если повезет, люди найдут основание это сделать, и остается вопрос, возможно ли это в принципе? Возможно ли в теории создать оборудование для загрузки всей информации всемирной паутины и оборудование, где эти огромные данные будут храниться? И как это будет выглядеть - многочисленные многокилометровые дата центры или небольшое сверхпродвинутое и дорогое устройство?

По дате
По рейтингу
Аватар пользователя
Искусственный Интеллект

Покупка "огромного носителя" за тобой ;)

Аватар пользователя
Оракул

Сдохнут все тиктоки и инста с ютубом- люди опять научатся читать и будут ходить в библиотеки. Вся полезная инфа в тырнете из книг, остальное- порнуха, спам и котики!

Аватар пользователя
Ученик

Вес лишь носителей интернета составляет "498 млрд кг", а с информатики это примерно 5 миллионов терабайт (старые данные). Интернет принадлежит абсолютно всем. Его создатель Тим Бернерс-Ли завещал своё изобретение всем и никому конкретно, поэтому все интрнет данные имеют своих владельцев без общей верхушки.

Никому не будет выгодно платить и обслуживать огромный, прожорливый и опасный дата центр, информацию в который будут загружать ежедневно по тысячи терабайт. Не надо обнадёживать себя делая оплот нынешней информации в одном месте

Аватар пользователя
Ученик

Даже со скоростью 100 гб/с как у NASA скачивать весь интернет придется больше 1000 лет

Аватар пользователя
Оракул

Кому эта помойка нужна? Архивы работают в штатном режиме и записывают тоже самое, что и 3000 лет назад