System.Numerics.Vector‹T› для больших наборов данных

Я пытаюсь повысить производительность библиотеки .NET Core, используя System.Numerics для выполнения SIMD-операций с float[] массивами. System.Numerics сейчас немного странно, и мне трудно понять, как это может быть полезно. Я понимаю, что для того, чтобы увидеть прирост производительности с помощью SIMD, он должен амортизироваться за счет большого количества вычислений, но, учитывая то, как это реализовано в настоящее время, я не могу понять, как этого добиться.

Vector<float> требует 8 значений float — ни больше, ни меньше. Если я хочу выполнить SIMD-операции с группой значений меньше 8, я вынужден скопировать значения в новый массив и дополнить оставшуюся часть нулями. Если группа значений больше 8, мне нужно скопировать значения, дополнить нулями, чтобы убедиться, что их длина выровнена до числа, кратного 8, а затем зациклиться на них. Требование к длине имеет смысл, но приспособиться к нему кажется хорошим способом свести на нет любой прирост производительности.

Я написал тестовый класс-оболочку, который заботится о заполнении и выравнивании:

public readonly struct VectorWrapper<T>
  where T : unmanaged
{

  #region Data Members

  public readonly int Length;
  private readonly T[] data_;

  #endregion

  #region Constructor

  public VectorWrapper( T[] data )
  {
    Length = data.Length;

    var stepSize = Vector<T>.Count;
    var bufferedLength = data.Length - ( data.Length % stepSize ) + stepSize;

    data_ = new T[ bufferedLength ];
    data.CopyTo( data_, 0 );
  }

  #endregion

  #region Public Methods

  public T[] ToArray()
  {
    var returnData = new T[ Length ];
    data_.AsSpan( 0, Length ).CopyTo( returnData );
    return returnData;
  }

  #endregion

  #region Operators

  public static VectorWrapper<T> operator +( VectorWrapper<T> l, VectorWrapper<T> r )
  {
    var resultLength = l.Length;
    var result = new VectorWrapper<T>( new T[ l.Length ] );

    var lSpan = l.data_.AsSpan();
    var rSpan = r.data_.AsSpan();

    var stepSize = Vector<T>.Count;
    for( var i = 0; i < resultLength; i += stepSize )
    {
      var lVec = new Vector<T>( lSpan.Slice( i ) );
      var rVec = new Vector<T>( rSpan.Slice( i ) );
      Vector.Add( lVec, rVec ).CopyTo( result.data_, i );
    }

    return result;
  }

  #endregion

}

Эта обертка делает свое дело. Вычисления кажутся правильными, и Vector<T> не жалуется на количество входных элементов. Однако он в два раза медленнее, чем простой цикл for на основе диапазона.

Вот эталон:

  public class VectorWrapperBenchmarks
  {

    #region Data Members

    private static float[] arrayA;
    private static float[] arrayB;

    private static VectorWrapper<float> vecA;
    private static VectorWrapper<float> vecB;

    #endregion

    #region Constructor

    public VectorWrapperBenchmarks()
    {
      arrayA = new float[ 1024 ];
      arrayB = new float[ 1024 ];
      for( var i = 0; i < 1024; i++ )
        arrayA[ i ] = arrayB[ i ] = i;

      vecA = new VectorWrapper<float>( arrayA );
      vecB = new VectorWrapper<float>( arrayB );
    }

    #endregion

    [Benchmark]
    public void ForLoopSum()
    {
      var aA = arrayA;
      var aB = arrayB;
      var result = new float[ 1024 ];

      for( var i = 0; i < 1024; i++ )
        result[ i ] = aA[ i ] + aB[ i ];
    }

    [Benchmark]
    public void VectorSum()
    {
      var vA = vecA;
      var vB = vecB;
      var result = vA + vB;
    }

  }

И результаты:

|     Method |       Mean |    Error |   StdDev |
|----------- |-----------:|---------:|---------:|
| ForLoopSum |   757.6 ns | 15.67 ns | 17.41 ns |
|  VectorSum | 1,335.7 ns | 17.25 ns | 16.13 ns |

Мой процессор (i7-6700k) поддерживает аппаратное ускорение SIMD, и он работает в 64-разрядном режиме выпуска с оптимизацией, включенной в .NET Core 2.2 (Windows 10).

Я понимаю, что Array.CopyTo(), вероятно, является значительной частью того, что убивает производительность, но кажется, что нет простого способа иметь как отступы/выравнивание, так и наборы данных, которые явно не соответствуют спецификациям Vector<T>.

Я новичок в SIMD и понимаю, что реализация C# все еще находится на ранней стадии. Однако я не вижу явного способа извлечь из этого пользу, особенно если учесть, что это наиболее полезно при масштабировании на большие наборы данных.

Есть ли лучший способ сделать это?


person Haus    schedule 01.05.2019    source источник
comment
Я не понимаю, почему вы делаете это сценарием или/или. Используйте векторные инструкции для векторных срезов исходного массива, затем обработайте последние несколько оставшихся элементов один за другим в стандартном цикле. Никакого копирования или заполнения не требуется. Кроме того, если вы ориентируетесь исключительно на Core, вас также может заинтересовать более новое и гибкое пространство имен System.Runtime.Intrinsics.   -  person kalimag    schedule 01.05.2019
comment
Я не могу дать полный ответ. Но если вам нужно создать диапазон или копию данных для каждого вектора для обработки, это неправильный подход из-за накладных расходов (как вы знаете). Есть шаблоны кода, которым это не нужно. Каждая итерация цикла для + — это всего лишь два чтения памяти, одно добавление и одно сохранение. Как и в нативном коде. Хвост массива должен быть обработан поэлементно с использованием второго цикла. Без прокладки.   -  person usr    schedule 05.05.2019


Ответы (1)


Я не уверен, что вы подразумеваете под «причудливым», но сейчас он вполне пригоден для использования (хотя, вероятно, он мог бы быть более производительным). Используя ваш случай (суммирование поплавков), я получаю следующие результаты по 10003 элементам с пожилым процессором Haswell:

BenchmarkDotNet=v0.11.5, OS=Windows 10.0.17134.706 (1803/April2018Update/Redstone4)
Intel Core i7-4500U CPU 1.80GHz (Haswell), 1 CPU, 4 logical and 2 physical cores
Frequency=1753753 Hz, Resolution=570.2057 ns, Timer=TSC
.NET Core SDK=2.1.602
  [Host]     : .NET Core 2.1.9 (CoreCLR 4.6.27414.06, CoreFX 4.6.27415.01), 64bit RyuJIT
  DefaultJob : .NET Core 2.1.9 (CoreCLR 4.6.27414.06, CoreFX 4.6.27415.01), 64bit RyuJIT


|   Method |      Mean |     Error |    StdDev |
|--------- |----------:|----------:|----------:|
| ScalarOp | 12.974 us | 0.2579 us | 0.2533 us |
| VectorOp |  3.956 us | 0.0570 us | 0.0505 us |
| CopyData |  1.455 us | 0.0273 us | 0.0228 us |

Копирование данных из вектора обратно в массив выполняется (относительно) медленно, поскольку занимает почти половину времени. Но все же: общее время векторизованной операции меньше 1/3 скалярной...

Глядя на разборку (ее сгенерирует BenchmarkDotNet), кажется, что операция копирования памяти использует (более медленную) невыровненную операцию. Возможно, будущая версия .Net Core учтет это.

Вы можете полностью избежать операции копирования, используя Span<T> и MemoryMarshal.Cast, чтобы поместить результирующий вектор прямо в Span. Это сокращает время суммирования прибл. треть по сравнению с копированием (ниже не показано).

Для справки, код теста (floatSlots = Vector<float>.Count; массивы создаются до запуска теста и заполняются данными) и не обязательно является оптимальным решением:

        [Benchmark]
        public void ScalarOp()
        {            
            for (int i = 0; i < data1.Length; i++)
            {
                sums[i] = data1[i] + data2[i];
            }            
        }

        [Benchmark]
        public void VectorOp()
        {                      
            int ceiling = data1.Length / floatSlots * floatSlots;
            int leftOver = data1.Length % floatSlots;
            for (int i = 0; i < ceiling; i += floatSlots)
            {                
                Vector<float> v1 = new Vector<float>(data1, i);                
                Vector<float> v2 = new Vector<float>(data2, i);                
                (v1 + v2).CopyTo(sums, i); 

            }
            for (int i = ceiling; i < data1.Length; i++)
            {
                sums[i] = data1[i] + data2[i];
            }
        }

        [Benchmark]
        public void CopyData()
        {                        
            Vector<float> v1 = new Vector<float>(8);
            int ceiling = data1.Length / floatSlots * floatSlots;
            int leftOver = data1.Length % floatSlots;
            for (int i = 0; i < ceiling; i += floatSlots)
            {                               
                (v1).CopyTo(sums, i);
            }
            for(int i = ceiling; i < data1.Length; i++)
            {
                sums[i] = 8;
            }                
        }

Редактировать: исправлен скалярный эталон, чтобы он совпадал с вектором, добавлено упоминание Span и MemoryMarshal.Cast.

person C. Gonzalez    schedule 06.05.2019
comment
Haswell не такой уж пожилой; он поддерживает AVX2 + FMA и имеет 256-битные блоки выполнения загрузки/сохранения. Skylake не сильно отличается от Haswell для большинства операций FP. Но более новая система будет иметь более быструю оперативную память, так что это имеет большое значение для зацикливания на больших массивах, которые будут отсутствовать в кеше. - person Peter Cordes; 08.05.2019
comment
Можете ли вы опубликовать полный тест, пожалуйста? Вы уверены, что разница не связана с производительностью памяти/кэша? - person Haymo Kutschbach; 04.11.2020
comment
@HaymoKutschbach Я не уверен, что ты имеешь в виду. Производительность кэша всегда является фактором, но в основном связана с размером набора данных и шаблонами доступа к памяти. Векторизованные операции проявляются, когда во внутреннем цикле есть несколько операций с данными без промежуточных эффектов/сохранений (в отличие от просто выборки-суммы-сохранения). - person C. Gonzalez; 10.11.2020
comment
Верно. но это именно так, как это выглядит в примере, нет? - person Haymo Kutschbach; 11.11.2020