はてなキーワード: シングルコアとは
Q.
1つのCPUコアでの逐次処理を高速化することには限界があるため、コア数を増やし並列化させることで性能を向上させる必要がある、という考え方について、市販のサーバコンピュータとスーパーコンピュータで違いはありますか?
A.
この考え方に関して、市販のサーバコンピュータとスーパーコンピュータの間には基本的な違いはありません。両者とも、シングルコアの性能向上に限界がある中で、並列化によって全体的な処理能力を高めるという方向性を共有しています。しかし、その実現方法や規模には大きな違いがあります。 サーバコンピュータとスーパーコンピュータの並列化アプローチの比較 1. 並列化の規模 サーバコンピュータ: 数個から数百個のコアを使用 スーパーコンピュータ: 数万から数百万個のコアを使用 2. 並列化の方法 サーバコンピュータ: 主にSMP(対称型マルチプロセッシング)やNUMA(非一様メモリアクセス)アーキテクチャを採用 比較的少数のプロセッサを密結合 スーパーコンピュータ: 大規模な分散メモリシステムを採用 多数のノードを高速ネットワークで接続 3. 相互接続技術 サーバコンピュータ: 一般的なネットワーク技術(イーサネットなど)を使用 スーパーコンピュータ: 専用の高速相互接続技術(InfiniBand、Tofu Interconnectなど)を使用 4. ソフトウェアとプログラミングモデル サーバコンピュータ: OpenMPやpthreadsなど、比較的シンプルな並列プログラミングモデルを使用 スーパーコンピュータ: MPIなどの複雑な分散メモリプログラミングモデルを使用 ハイブリッド並列化(MPI+OpenMP)などの高度な技術も適用 5. スケーラビリティ サーバコンピュータ: 中規模までの並列化に適しているが、大規模になるとスケーラビリティに課題 スーパーコンピュータ: 極めて大規模な並列化に対応できるよう設計されている 6. 用途 サーバコンピュータ: ウェブサービス、データベース、ビジネスアプリケーションなど、比較的汎用的な用途 スーパーコンピュータ: 気象予報、宇宙物理学シミュレーション、分子動力学計算など、極めて計算負荷の高い科学技術計算
最近の世代のi7,i9で色々言われてたやつ、あれ結局どうなってるの?
そろそろPC買い替えたいけどIntelはやめたほうがいいんか
電力制限してないからとか言われてたけど、Intel推奨プロファイルでも故障割合多いみたいな話もみつけた
設計上無理があるものなら制限してても短期で壊れそうだし、スペックも結構落ちるはず
Ryzenはシングルコア性能が低いのであまり選びたくないけど、Intelでも制限してスペック落ちてるなら変わらないのかなと思うものの買い替え自体をもっと待ったほうがいいような気もしてる
ただ次のIntelはUltraになって大きく変わるみたいだし最初は間に合わなくてハイパースレッディングがついてないって話も聞いた
大きく違うなら1,2世代待って安定したらにしたい気持ちもあるけどWindows10のサポートが先に終わりそう
問題が報告されてない数世代前かi5という手もあるけどCPUは頻繁にソケット変わってマザボごと買い替えになるからあまりしたくない
難しいところだ
全部入りで史実の位置で日本ではじめてターン制限無しで外交で勝利するとかやる
ここまでだと『ほーん、縛りプレイ好きか、まぁまぁシミュレーションゲーム得意なの?』ってなるかもだが、
縛りプレイ(ロールプレイ)は好きでも、ポンコツシングルコアなのでプライベートは合理化・効率化は常時OFFだし、
ネタバレ見るのも嫌い(攻略サイト見ない)。じゃあ、攻略するために、説明テキスト読み込んでるのかと言えばそんな事もない
ろくに読まずに試してやり直すを繰り返す感じ
『それで史実の位置で日本で外交勝利出来る?かなりやり直すことにならん?』ってなるが『ならん」のや・・・
何故ならなるような設定で遊ばないから
まぁ『???』ってなるよな、『それ遊ぶ意味ある?楽しい?』みたいな
やりたい放題楽しいし、なんか寝落ちするためにやってるゲームって感じやな
あいもかわらずBSEの検討してしまった。こんなことしていて意味あるのか。WFを求めるところと最終段のランチョス回すところは既存のものをつかうとして、その間は自分でコーディングするのが良いようなきがしてきた。あの人が2000年前後に展開していた近似法がどこにも実装されていないような気がする。その近似をつかうとだいぶスピードが出るような期待が高まっている。その部分にしたって、既存のFortranコードがベースライン実装だけど、そいつをもとにいじくる。ランチョスの部分はシングルコア想定で並列処理に対応してないので、そこを並列化(共有メモリ並列で十分)する。新興勢力の言語で実装してあるので、そこをどうするか
🚙Passmarkだとメインストリームのi5は、
2019年に対して1.4~1.5倍、
になってるけど、そういう話じゃなく?
■
シングルコアの限界というものは10年以上前のPentium4の頃から言われていたことで、
1つのタスクをシングルコアでやらなきゃならんという発想が時代遅れでありながら伝統的なC系の言語はシングルスレッドのプログラムを書くことが大前提だった
最近になってasync/awaitだのが拡充してきた
シングルコアの限界というものは10年以上前のPentium4の頃から言われていたことで、
1つのタスクをシングルコアでやらなきゃならんという発想が時代遅れでありながら伝統的なC系の言語はシングルスレッドのプログラムを書くことが大前提だった
最近になってasync/awaitだのが拡充してきた
CPUのクロックは微妙に速くなっているがシングルコアの性能はほぼ変わらない。
マルチコアになったとして、ThreadripperのようにIOダイを使って大きくしても、劇的に速くならない。
3D V-Cacheで積層してキャッシュを増やしても、アプリレベルでは劇的に速くなってない。
更に積層するのはあるかもしれないが、熱問題に対する解決策がないので出来ないでいる。
UCIe規格経由で複数のチップレットを接続するのが今後出てくると思うが、どれだけ専用の回路を搭載し利用するかで処理能力は変わるが、
Apple M1 UltraのようにProResの本数が増えても使いこなす人が居そうにないというのと似たことになりそうじゃないか。
GPUのように広帯域のHBM/GDDRと、データ依存性がない場合は処理能力高くなるが、
CPU側のメモリーとGPU側のメモリーとのコピーやらオーバーヘッドが合ったり、ゲームがAIの一部といった感じだし、
ゲームもベンチ上は数字が変わるが体感変わらねーなってのに金額が高くなるのもな。
ユニファイドメモリーにするとApple M1系のように性能でないしさ。
レイテンシは変わらないし、DDRの代わりになるものも出て来てない。
インテルがフォトニクスに注力してたり、日本の半導体戦略でもフォトニクスとしてが上がっていたりするが、
光は早いようで遅く、メリットだと低電力か発熱源の分散でしかない。
HPEがフォトニクスで先行していたが、処理能力というより、発熱源分散での設計のし易さアピールだった。
DPU(データ プロセッシング ユニット)、OPU(Optical Processing Unit)はスパコンやクラウドでは追加されるかもしれないが、
パソコンにはまだ遠そう。
DVDが不要になり5インチベイがなくなり、SATA SSDがなくなって2.5インチベイもなくなり、
ちょっとずつパーツ買って性能上げるなんてことはなくなって、全部とっかえ。
もう少しなんとかならないか。
CPUのクロックは微妙に速くなっているがシングルコアの性能はほぼ変わらない。
マルチコアになったとして、ThreadripperのようにIOダイを使って大きくしても、劇的に速くならない。
3D V-Cacheで積層してキャッシュを増やしても、アプリレベルでは劇的に速くなってない。
更に積層するのはあるかもしれないが、熱問題に対する解決策がないので出来ないでいる。
UCIe規格経由で複数のチップレットを接続するのが今後出てくると思うが、どれだけ専用の回路を搭載し利用するかで処理能力は変わるが、
Apple M1 UltraのようにProResの本数が増えても使いこなす人が居そうにないというのと似たことになりそうじゃないか。
GPUのように広帯域のHBM/GDDRと、データ依存性がない場合は処理能力高くなるが、
CPU側のメモリーとGPU側のメモリーとのコピーやらオーバーヘッドが合ったり、ゲームがAIの一部といった感じだし、
ゲームもベンチ上は数字が変わるが体感変わらねーなってのに金額が高くなるのもな。
ユニファイドメモリーにするとApple M1系のように性能でないしさ。
レイテンシは変わらないし、DDRの代わりになるものも出て来てない。
インテルがフォトニクスに注力してたり、日本の半導体戦略でもフォトニクスとしてが上がっていたりするが、
光は早いようで遅く、メリットだと低電力か発熱源の分散でしかない。
HPEがフォトニクスで先行していたが、処理能力というより、発熱源分散での設計のし易さアピールだった。
DPU(データ プロセッシング ユニット)、OPU(Optical Processing Unit)はスパコンやクラウドでは追加されるかもしれないが、
パソコンにはまだ遠そう。
DVDが不要になり5インチベイがなくなり、SATA SSDがなくなって2.5インチベイもなくなり、
ちょっとずつパーツ買って性能上げるなんてことはなくなって、全部とっかえ。
もう少しなんとかならないか。
まず、あまり現時点では使い道が少ないニューラルネットの回路が倍になっても、意味がない。
ProRes周りの回路が増えたとしても、誰がそんな何本も流すんだ?という感じになっている。
クラウドで大量に処理したい動画がある場合はいいだろうが・・・。
価格が安ければ、動かないダークシリコンがあったとしても納得するだろうが、価格が高いので納得感はない。
個人的には、GPUコアのみのダイを結合した方が使い勝手はいいように感じる。
(Appleですら先端プロセスの価格に苦労してそうなので、作れるかわからんが)
1つ目のダイはCPUのシングルコア性能アップとキャッシュアップ、GPUは最低限にする
という構成の方がいいのではないだろうか。
曰く、YOASOBIのアルバムを聴いて「このビートの単調さと音色・音圧のショボさが世間で許容されてるのはちょっと信じたがたい」とのことだ。
実は私もこの評については概ね同意なのだが、考えをまとめるために「夜に駆ける」を題材に少しだけこのことについて書いていきたいと思う。
見当違いな点もあるかとは思うが、素人ながら20年以上音楽をやってきた人間の一意見だと思っていただけると幸いだ。あと、あくまで音に関する話だから、歌詞とかについては割愛。
●メロディについて
特に変なメロディだとは思わないけど、ドラマチックさには欠ける気はしている。目新しさも特にない。が、キャッチーではあると思う。冒頭とか思わず口ずさんでしまうインパクトはあるし。
●アレンジ面
正直ここが一番ツッコミを入れたいところだ。かの音楽評論家の言っていた「音色・音圧のショボさ」はここに主な要因がある。
無駄を省いた、と言えば聞こえはいいかもしれないが、多分Ayase氏はまだそこまでのテクニックを持っていないだけにすぎないのだろう。音の緻密さはなく、だいぶ荒削りだ。
キックは4つ打ちに重要なローのスピード感がいまいちだ。だいぶもっさりしているように思う。
ピアノのボイシングも工夫がない。低音で3和音を鳴らしているのは編曲の理論としてはあまり好ましくないし、それが結果的にピアノのローをEQでごっそりカットするということに繋がっている。
ギターについてはまぁ職人な立ち位置だなとは思った。サウンドメイクはもうちょっと頑張って欲しいけど。
全体の構成としてもだいぶのっぺりしていて、場面場面での厚みにあまり変化がないのが気になった。
●ボーカルについては
正直あまり印象に残らない、というのが個人的な感想だ。ややのっぺりした歌い方は最近のシンガーソングライター系のそれに感じたが、声に強烈な個性があるわけでもないのでそれが逆効果になっているように思った。
歌に表情をつけるためのテクニックがまだ途上なのかな、全体のサウンドがのっぺりしているのにボーカルものっぺりしてるから、いまいち曲に抑揚がないように感じてしまう。コンプがどうとかって話じゃないよ。それが私の感じた「つまらなさ」に繋がっているのかな、と思った。
●エンジニアリングについて
とにかく平面的で一直線上に張り付いた、奥行き感のないサウンドに感じた。レンジも狭いし。
デジタル系ビートにも関わらず、キックのボトムエンドの量感が感じられないのはかなり気になるところだ。4つ打ちなのにノれない…。
あと、とにかくピアノの音がパッツパツなのが気になりすぎる。曲調が曲調だからなのかもしれないけど、それにしたってそんなに音数が多いわけでもないアレンジの中でこんなにダイナミクスのない音にするのはどうなのかな、と感じる。
ボーカルもほやっとして抜けにくい声質だからなのか、パッツパツのしゃりっしゃりになっていて、もうちょいナチュラルに仕上げてもいいんじゃないの?っていう感想だ。
で、ここまでパッツパツになっていながらも、全体的に音圧感はない。
はい、ここで勘違いされそうな単語「音圧」が出ました。音圧っつーのはマスタリングにおける海苔波形がどうとかって話ではなく、一つひとつの音色がもつ太さやスピード感、ヌケ、煌びやかさのことだ。パワーというか。
全体的に音が細いんだよね。圧倒的な素人感というか、ちゃんと音作りしてないなーってのがすごく分かる。
で、ここまでいろいろ書いてきたけど、例のプチ炎上したツイートに関連して「スマホとかで聴いてる層をターゲットにしてるからそういう音なんだよ、そういうマーケティングなんだよ」という意見が見られた。
いや、違うでしょ。どう考えてもAyase氏が
「いいサウンドを知らない、いいサウンドの作り方を知らないだけ」
でしょ。
確かに彼が作る音楽を好んで聴く層というのは中高生が多いのは事実だ。そして当然高価なオーディオ機器など持ってはいない場合がほとんどだ。今の時代なら、スマホとワイヤレスイヤホンで聴くという人が多いだろう。
だが、だからといってそういった層が気づかないような部分のこだわりを捨ててしまうというのは、作品としての完成度を下がるだけでしかない。もっとも、この場合はそのこだわり方もまだよく知らない段階だと思うが。
私は「スマホ向けのサウンドに仕上げる」ということには普段から疑問を感じている。クリエイターたるもの「どんな環境で聴いても最良と思えるものに仕上げるべき」と考えているからだ。それに、スマホのフィルターに通してしまえばそれは勝手にスマホの音になるわけで。
過去の名曲をスマホで聴いたら、その魅力は劣化するか?そうではないはずだ。Steive Wonderの曲はグルーヴを失うか?浅倉大介のアレンジは煌びやかさを失うか?Dream Theaterのサウンドは分厚さが薄れるか?
つまりあれよ、クリエイターたるものクオリティは追求し続けてほしい、という話だ。
じゃあどんな環境においても最高のサウンドに聞こえるようにするためにはどうするか?何よりもまず、作る人間がそれをしっかりジャッジできるモニター環境を構築する事だ。
Ayase氏の制作環境がMacBookにヘッドホン直挿し、というツイートがバズったことを知っている人は多いと思うが、私はそれを見て非常に納得した。
誤解してほしくないのだが、私は別にそんな環境で曲を作ることが悪いと言いたいわけではない。お金なければその中で頑張るのは当たり前だし。
ただ、もう一つ誤解してほしくないのは「いい曲を作るための環境構築にお金をかけなくても良い」というわけでもない、ということだ。
例えばいいオーディオIFやスピーカーを買うことによって、それまで聞こえなかった音が聞こえるようになる、というのは当たり前だがよくあることだ。私もそこまでお金をかけられているわけではないが、現時点でミドルクラスくらいのモニター環境は構築できているとは思うので、その実感は何度も味わってきた。
つまり「できることを増やす」ためにある程度投資した方がいいということだ。SEに置き換えれば、シングルコアCPUにメモリ2GBのクソスペPCじゃ仕事にならないのと似ていると思う。
ただまあ、直近のインタビューではある程度機材を導入したりしているような回答もあったので、これからAyase氏の作る音楽がどうクオリティアップしていくのかは…………別に興味ないか……。
私もそのうち気が向いたら「夜に駆ける」のアレンジでもやってみるかね。
Manycoreという技術そのものはIntelもだしてる。さらなるManyはGPGPUでやってる。
他方シングルコア性能は上がってはいるが4Gぐらいで、議論を呼んでる。
今議論を読んでいるのは、コンパイラの最適化と、マイクロコードの最適化
そこはかなり疎結合だからな。インタプリタで言うエンジンの最適化ではないが
CPUでどう最適化されるか?をインタプリタがもうすこし制御すればインタプリタのスクリプトコードをもう少し効率的な生成にできるのではないか?というアプローチがJava的ではなくPython的にあらわれはじめていて、けっこう、興味深い
デフォルトのPythonとコーダーが機械語の変換について学習させてあるPythonという考え方はとてもポケモン的で面白い