Цитата:
Ранее имел ввиду многоядерность на одном кристалле (в одном чипе)
или на разных чипах или даже платах (разность в скорости обмена
данными), а не обьемном исполнении. Современные суперкомпьютеры
строятся именно по такой схеме и именно там масштабируемость
и распараллеливание используется по максимому. Есть где черпать
опыт и идеи.
Ну так и я про тоже объемное исполнение связано со скоростью обработки. На кристалле мы ограничены планетарностью передачи информации, а тут добавляться ещё и объем что увеличивает внутреннюю пропускную способность системы(компьютера).
Цитата:
Для эффективного распараллеливания POSIXом или чем-то подобным из
Форточек не обойдешься. Тут свой стандарт нужен будет.
Хотя стоит посмотреть, какие-то стандарты по распараллеливанию
явно уже существуют. Может быть кто-то слышал что-то?
Снизу в верх.
SSE, OpenCL и CUDA, OpenMP, MPI, NGNIX proxy, DNS.
И это только самые известные. А так на каждом уровне можно найти с десяток.
1. Параллельность на уровне группировке данных.
2. Потоки команд, конвейерная обработка.
3. Параллельность циклов
4. Параллельность функций.
5. Параллельность входных данных.
6. Параллельность по географическому признаку.