Dotychczas GPU wykorzystywano głównie do akceleracji obliczeń matematycznych – bardzo wiele superkomputerów wykorzystuje właśnie takie procesory. Na rynku jest też sporo oprogramowania inżynierskiego oraz multimedialnego, które korzysta z GPU. Jest jednak zastosowanie o wiele ciekawsze – GPU można użyć do akceleracji obliczeń związanych z analityką klasy Big Data.

Uważam, że jest to jeden z najciekawszych pomysłów prezentowanych w ramach #code_n na targach Cebit2014.