5

ReLU Activation

Unsolved
Fundamentals

Difficulty: 1 | Problem written by peter.washington

Educational Resource: https://cs231n.github.io/neural-networks-1/


Problem reported in interviews at

Amazon
Apple
Facebook
Google
Netflix

Write the Rectified Linear Unit (ReLU) activation function. Given an input x, output its ReLU activation.

Sample Input:
<class 'list'>
x: 3

Expected Output:
<class 'int'>
3

Lorem ipsum dolor sit amet, consectetur adipisicing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua. Ut enim ad minim veniam, quis nostrud exercitation ullamco laboris nisi ut aliquip ex ea commodo consequat. Duis aute irure dolor in reprehenderit in voluptate velit esse cillum dolore eu fugiat nulla pariatur. Excepteur sint occaecat cupidatat non proident, sunt in culpa qui officia deserunt mollit anim id est laborum.

Consectetur dolore quas nemo saepe dolores neque facere dolorem, nihil nostrum officia veritatis quasi debitis quas voluptatum neque doloremque architecto, expedita excepturi ducimus rem repellendus ratione quod quia est nobis odio? Reprehenderit ea rem rerum eveniet?

Nostrum natus fugiat veritatis, rerum animi a velit, libero in mollitia, similique numquam corrupti facilis, hic aperiam praesentium consequuntur adipisci illum nemo fuga magnam commodi sint sapiente. Voluptas culpa atque non vero quaerat vel rerum natus aspernatur illo quis, accusamus qui maxime quae dolor omnis incidunt dicta veritatis porro quaerat nam, veniam repellendus a quibusdam iure exercitationem iusto pariatur, modi odit labore quam obcaecati optio, aliquam deleniti dignissimos pariatur ea voluptatibus?

Perferendis exercitationem distinctio quidem nemo pariatur consequatur esse sunt, nemo iste omnis at quos facilis similique quam alias.

This is a premium feature.
To access this and other such features, click on upgrade below.

Ready.

Input Test Case

Please enter only one test case at a time
numpy has been already imported as np (import numpy as np)