Devo usar int ou Int32


352

Em C #, inte Int32são a mesma coisa, mas eu li várias vezes que inté preferível, Int32sem nenhum motivo. Existe uma razão e devo me importar?


Tweet pelo Skeet sobre isso, onde ele prefere o Int32 sobre o int ao programar APIs.
comecme

@JohnBubriski: e não vamos esquecer que requer menos instruções de uso para usá-lo (ou você estaria digitando System.Int32)
Veja

Eu tenho pergunta: não estamos usando o tipo CLR diretamente, mas por que precisamos deles?
AminM

A atualização de status do @JohnBubriski no Facebook é mais fácil de digitar do que um pedaço de código. Mau pensamento lá! Mais fácil de ler e entender é muito mais importante do que fácil de digitar. When something can be read without effort, great effort has gone into its writing. Easy writing is hard reading
precisa saber é o seguinte

Respostas:


134

ECMA-334 : 2006 Especificação de idioma C # (p18):

Cada um dos tipos predefinidos é uma abreviação de um tipo fornecido pelo sistema. Por exemplo, a palavra-chave intrefere-se à estrutura System.Int32. Por uma questão de estilo, o uso da palavra-chave é preferível ao uso do nome completo do tipo de sistema.


271

Os dois são realmente sinônimos; intterá uma aparência um pouco mais familiar, Int32torna o número 32-bit mais explícito para quem lê seu código. Eu estaria inclinado a usar intonde eu só preciso de 'um número inteiro', Int32onde o tamanho é importante (código criptográfico, estruturas) para que futuros mantenedores saibam que é seguro aumentar um, intse apropriado, mas devem tomar cuidado ao mudar Int32s da mesma maneira.

O código resultante será idêntico: a diferença é puramente de legibilidade ou aparência do código.


65
As pessoas que leem seu código devem saber que int é um alias para System.Int32. No que diz respeito à legibilidade, a consistência é muito mais importante.
Troels Thomsen

11
Para aqueles com a antiga mentalidade de C ++, o IntPtr foi projetado para ter 32 bits em um sistema operacional de 32 bits e 64 bits em um sistema operacional de 64 bits. Esse comportamento é mencionado especificamente em sua tag de resumo. msdn.microsoft.com/pt-br/library/system.intptr(VS.71).aspx
diadem

87

Ambos declaram números inteiros de 32 bits e, como outros pôsteres declararam, qual deles você usa é principalmente uma questão de estilo sintático. No entanto, eles nem sempre se comportam da mesma maneira. Por exemplo, o compilador C # não permitirá isso:

public enum MyEnum : Int32
{
    member1 = 0
}

mas permitirá isso:

public enum MyEnum : int
{
    member1 = 0
}

Vai saber.


9
Se você usar o Reflector para examinar o tipo System.Int32, verá que é uma estrutura e não uma classe. O código fica assim: [Serializable, StructLayout (LayoutKind.Sequential), ComVisible (true)] estrutura pública Int32: IComparable, IFormattable, IConvertible, IComparable <int>, IEquatable <int> {public const int MaxValue = 0x7fffffff; ... Você não pode derivar um tipo de uma estrutura. No mínimo, você receberá um erro informando isso. No entanto, o comportamento da enumeração é um pouco diferente, o que comentarei a seguir.
Raddevus

16
A incapacidade de derivar uma enumeração do Int32 é um comportamento projetado, que também pode ser visto observando o código .NET: [Serializable, ComVisible (true)] classe pública abstrata Enum: ValueType, IComparable, IFormattable, Observe que o Enum é derivado do ValueType? Se você tentar derivar uma enumeração de outra coisa além de um tipo de dados intrínseco (int, byte etc.), receberá um erro semelhante a: Digite byte, sbyte, short, ushort, int, uint, long ou ulong esperado .
Raddevus

2
@ daylight note que especificar um enumpara usar intnão é um derive, mas especificar um underlying type; consulte msdn.microsoft.com/pt-br/library/sbbt4032.aspx#code-snippet-2
Jeroen Wiert em

2
@JeroenWiertPluimers No entanto, ainda é interessante por que eles escolheram literalmente verificar o tipo subjacente e lançar o CS1008 , pois o tipo subjacente é apenas o tipo das constantes no enum, portanto, não importa quando compilado.
IllidanS4 quer Monica de volta

5
@ IllidanS4, com novo compilador Roslyn - este foi fixas, e ambos variante válida
Grundy

49

Eu sempre uso os tipos de sistema - por exemplo, em Int32vez de int. Adotei essa prática depois de ler a programação aplicada ao .NET Framework - o autor Jeffrey Richter é um bom argumento para usar os nomes completos dos tipos. Aqui estão os dois pontos que ficaram comigo:

  1. Os nomes dos tipos podem variar entre os idiomas do .NET. Por exemplo, em C #, longmapeia para System.Int64 enquanto em C ++ com extensões gerenciadas, longmapeia para Int32. Como os idiomas podem ser misturados e combinados durante o uso do .NET, você pode ter certeza de que o uso do nome explícito da classe sempre será mais claro, independentemente do idioma preferido do leitor.

  2. Muitos métodos de estrutura têm nomes de tipos como parte de seus nomes de métodos:

    BinaryReader br = new BinaryReader( /* ... */ );
    float val = br.ReadSingle();     // OK, but it looks a little odd...
    Single val = br.ReadSingle();    // OK, and is easier to read

Um problema é que o preenchimento automático do Visual Studio ainda usa int. Portanto, se você criar um List<Tuple<Int32, Boolean>> test = new, o Visual Studio agora será inserido List<Tuple<int, bool>>(). Você conhece uma maneira de alterar esses preenchimentos automáticos?
MrFox

2
Sim, é um problema; não, não sei como alterá-los de imediato. O ponto 2 não é mais um problema para mim, pois costumo usar varo máximo possível para reduzir a redação do código. Nos locais ocasionais em que o preenchimento automático entra e cospe no meu piso, eu ajusto manualmente - é literalmente um ou dois segundos do meu tempo.
Remi Despres-Smyth

20

int é uma palavra-chave C # e não é ambígua.

Na maioria das vezes, não importa, mas duas coisas que vão contra o Int32:

  • Você precisa ter um "using System;" declaração. usar "int" não requer nenhuma instrução de uso.
  • É possível definir sua própria classe chamada Int32 (o que seria bobo e confuso). int sempre significa int.

Também é possível criar sua própria classe 'var', mas isso não desencoraja as pessoas de usá-la.
Neme

Cada palavra-chave é uma palavra-chave em C #. int já foi usado em C e C ++. Portanto, não há nada especificamente em C #.
MrFox

12

Como já foi dito, int= Int32. Para estar seguro, sempre use int.MinValue/ int.MaxValueao implementar qualquer coisa que se importe com os limites do tipo de dados. Suponha que o .NET decidiu que intagora seria Int64, seu código seria menos dependente dos limites.


8
@spoulson: Erro de comentário na linha 1: atribuição proibida entre tipos iguais. Sim, uma piada de mau gosto.
Johann Gerell 19/01/10

22
Se a especificação C # (é uma decisão C #, não .NET) alguma vez decidiu mudar para criar int64 bits, seria uma mudança tão surpreendente que eu não acredito que seja possível (ou certamente sensato) codificar defensivamente contra tais eventualidades.
precisa saber é o seguinte

9

O tamanho de bytes para tipos não é muito interessante quando você precisa lidar apenas com um único idioma (e para o código que você não precisa se lembrar sobre estouros de matemática). A parte que se torna interessante é quando você faz a ponte entre um idioma para outro, C # para objeto COM, etc., ou está fazendo alguma alteração ou mascaramento de bits e precisa se lembrar (e seus colegas de revisão de código) do tamanho dos dados.

Na prática, normalmente uso o Int32 apenas para me lembrar qual é o tamanho deles, porque escrevo C ++ gerenciado (para fazer a ponte para C # por exemplo), bem como C ++ nativo / não gerenciado.

Desde que você provavelmente saiba, em C # é de 64 bits, mas em C ++ nativo, ele termina em 32 bits ou char é unicode / 16 bits, enquanto em C ++ é de 8 bits. Mas como sabemos disso? A resposta é, porque nós procuramos no manual e ele disse isso.

Com o tempo e as experiências, você começará a ter mais consciência do tipo quando escrever códigos para fazer a ponte entre C # e outras línguas (alguns leitores aqui estão pensando "por que você faria isso?"), Mas IMHO acredito que é uma prática melhor porque Não me lembro do que codifiquei na semana passada (ou não preciso especificar no meu documento da API que "esse parâmetro é um número inteiro de 32 bits").

No F # (embora eu nunca o tenha usado), eles definem int , int32 e nativeint . A mesma pergunta deve surgir: "qual deles eu uso?". Como outros já mencionaram, na maioria dos casos, isso não deve importar (deve ser transparente). Mas eu escolheria int32 e uint32 apenas para remover as ambiguidades.

Eu acho que dependeria apenas de quais aplicativos você está codificando, quem está usando, quais práticas de codificação você e sua equipe seguem etc. para justificar quando usar o Int32.


Isso não invalida o objetivo do .net? O que é F # de qualquer maneira, uma idéia portões tinham que foi embora com sua aposentadoria ...
Nick Turner

8

Não há diferença entre inte Int32, mas como inté uma palavra-chave no idioma, muitas pessoas preferem estilisticamente (assim como no stringvs String).


7

Na minha experiência, tem sido uma coisa de convenção. Não conheço nenhum motivo técnico para usar int sobre Int32, mas é:

  1. Mais rápido para digitar.
  2. Mais familiar para o desenvolvedor C # típico.
  3. Uma cor diferente no realce da sintaxe padrão do visual studio.

Gosto especialmente desse último. :)


7

Eu sempre uso os tipos com alias (int, string, etc.) ao definir uma variável e uso o nome real ao acessar um método estático:

int x, y;
...
String.Format ("{0}x{1}", x, y);

Parece feio ver algo como int.TryParse (). Não há outra razão para fazer isso além de estilo.


5

Eu sei que a melhor prática é usar int e todo código MSDN usa int. No entanto, não há uma razão além da padronização e consistência, até onde eu saiba.


5

Embora eles sejam (na maioria) idênticos (veja abaixo a única diferença [bug]), você definitivamente deve se importar e usar o Int32.

  • O nome para um número inteiro de 16 bits é Int16. Para um número inteiro de 64 bits, é Int64, e para um número inteiro de 32 bits, a escolha intuitiva é: int ou Int32?

  • A questão do tamanho de uma variável do tipo Int16, Int32 ou Int64 é auto-referenciada, mas a questão do tamanho de uma variável do tipo int é uma pergunta e perguntas perfeitamente válidas, por mais triviais que sejam, que causam distração. confusão, perda de tempo, dificultar a discussão etc. (o fato de esta questão existir provar o ponto).

  • O uso do Int32 promove que o desenvolvedor esteja consciente de sua escolha de tipo. Qual é o tamanho de um int novamente? Ah, sim, 32. A probabilidade de o tamanho do tipo ser realmente considerado é maior quando o tamanho é incluído no nome. O uso do Int32 também promove o conhecimento das outras opções. Quando as pessoas não são forçadas a pelo menos reconhecer que existem alternativas, fica muito fácil para o int se tornar "O tipo inteiro".

  • A classe na estrutura destinada a interagir com números inteiros de 32 bits é denominada Int32. Mais uma vez, o que é: mais intuitivo, menos confuso, carece de uma tradução (desnecessária) (não uma tradução no sistema, mas na mente do desenvolvedor), etc. int lMax = Int32.MaxValueou Int32 lMax = Int32.MaxValue?

  • int não é uma palavra-chave em todas as linguagens .NET.

  • Embora haja argumentos sobre por que é provável que isso nunca mude, int pode nem sempre ser um Int32.

As desvantagens são dois caracteres extras para digitar e [bug].

Isso não será compilado

public enum MyEnum : Int32
{
    AEnum = 0
}

Mas isso irá:

public enum MyEnum : int
{
    AEnum = 0
}

Você diz "O nome para um número inteiro de 16 bits é Int16, para um número inteiro de 64 bits é Int64 e, para um número inteiro de 32 bits, a escolha intuitiva é: int ou Int32?", Mas também existem palavras-chave em C #. Int16 = curto Int64 = longo Portanto, aponte uma das suas respostas é baseada em uma suposição incorreta.
23409 Mel

"a variável do tipo int é uma pergunta perfeitamente válida e as perguntas, por mais triviais, são perturbadoras, levam a confusão, desperdiçam tempo, dificultam a discussão etc. (o fato de que essa pergunta existe prova o ponto)". Você está brincando comigo? Você trabalha em uma linguagem que não entende completamente o que está por trás do capô. Se o desenvolvedor não entender o que o tipo primitivo significa, ele deve seguir as artes culinárias. Parece um desenvolvedor de VB. o uso de primitivas é nativo para qualquer idioma e deve ser preferido. Tudo bem se você não gosta de primitivos, mas não inventa realidades.
Nick Turner

Hmm, eu discordo totalmente da sua opinião de que eu deveria me importar ... mas eu não sabia que enums só podem herdar das palavras-chave. Um fato bastante inútil, mas ainda divertido saber :)
Jowen

4

Você não deveria se importar. Você deve usar a intmaior parte do tempo. Isso ajudará a portar seu programa para uma arquitetura mais ampla no futuro (atualmente inté um alias para, System.Int32mas isso pode mudar). Somente quando a largura de bits da variável é importante (por exemplo: para controlar o layout na memória de a struct), você deve usar int32e outros (com o " using System;" associado ).


11
Você não pode estar falando sério ... facilita a portabilidade? Não acho que encontrar e substituir seja importante.
Vince Panuccio 25/05

2
(atualmente int é um alias para System.Int32, mas isso pode mudar) ? Oh, vamos lá ... Você está falando sério?
Oybek

Por que você escreveria o código em um idioma que você deseja lixeira? Parece que por decisão da gerência. Use int ou Int32. Int32 olhares como VB
Nick Turner

O que eu quis dizer foi que TALVEZ, (e isso é um grande TALVEZ, eu realmente não sei por que os designers fizeram dessa maneira), você deve ter uma maneira de declarar um int que tenha a mesma largura que o arco em que você está executando, como int / long / ... de C funciona. Este é um mecanismo (int alias int32) que parece projetado para fazer exatamente isso. E leve em consideração que a Microsoft sempre recomenda o uso de "int" vs "Int32" (como faria se essa fosse sua intenção original). Eu sei, isso é um grande SE ... Quando escrevi esta resposta, não havia nenhuma estrutura .NET de 64 bits, então não sabia o que eles fariam nesse caso.
Yanko Hernández Alvarez

3

int é o atalho da linguagem C # para System.Int32

Embora isso signifique que a Microsoft possa alterar esse mapeamento, um post sobre as discussões do FogCreek afirmou [fonte]

"Na questão de 64 bits - a Microsoft está realmente trabalhando em uma versão de 64 bits do .NET Framework, mas tenho certeza que o int NÃO será mapeado para 64 bits nesse sistema.

Razões:

1. O padrão C # ECMA diz especificamente que int é 32 bits e longo é 64 bits.

2. A Microsoft introduziu propriedades e métodos adicionais no Framework versão 1.1 que retornam valores longos em vez de valores int, como Array.GetLongLength além de Array.GetLength.

Portanto, acho seguro dizer que todos os tipos de C # internos manterão seu mapeamento atual ".


Se uma versão de 64 bits for apresentada, eles provavelmente adicionarão 'nativeint' ao C # (como é atualmente usado no F #). Isso apenas reforça que introduzir o 'int' e defini-lo como um Int32 foi um erro! E, portanto, inconsistente do ponto de vista da API (por exemplo, ReadInt32 e não ReadInt), cor (azul escuro versus azul claro) e sensibilidade à caixa (DateTime vs int). ou seja, por que o tipo de valor 'DateTime' não possui um alias como Int32?
Carlo Bos

3

int é o mesmo que System.Int32 e, quando compilado, se transformará na mesma coisa no CIL .

Usamos int por convenção em C #, pois o C # quer se parecer com C e C ++ (e Java) e é isso que usamos lá ...

BTW, acabo usando System.Int32 ao declarar importações de várias funções da API do Windows. Não tenho certeza se essa é uma convenção definida ou não, mas isso me lembra que estou indo para uma DLL externa ...


3

Era uma vez, o tipo de dados int foi vinculado ao tamanho do registro da máquina direcionada pelo compilador. Portanto, por exemplo, um compilador para um sistema de 16 bits usaria um número inteiro de 16 bits.

No entanto, felizmente, não vemos mais 16 bits e, quando os 64 bits começaram a popular, as pessoas estavam mais preocupadas em torná-lo compatível com software mais antigo e os 32 bits já existiam há tanto tempo que, para a maioria dos compiladores, um int é assumido apenas como 32 bits.


3

Eu recomendo usar o Microsoft StyleCop .

É como FxCop , mas para problemas relacionados ao estilo. A configuração padrão corresponde aos guias de estilo internos da Microsoft, mas pode ser personalizada para o seu projeto.

Pode demorar um pouco para se acostumar, mas definitivamente torna seu código mais agradável.

Você pode incluí-lo em seu processo de compilação para verificar automaticamente se há violações.


Eu discordo completamente do StyleCop neste caso. sim, é bom, mas eu prefiro usar o Int32, por quê? para evitar respostas como as duas votadas abaixo. As pessoas confundem Int32 com a forma como ints são representados em C
John Demetriou

2

inte Int32é o mesmo. inté um alias para Int32.


int não é um alias, é uma palavra-chave. Veja as outras respostas.
Timores 04/04/10

int é definitivamente uma palavra-chave para o idioma, mas também pode ser chamado de apelido de System.Int32. Além disso, outra maneira de pensar sobre isso é que você possui uma using int = System.Int32; diretiva para todos os seus arquivos de código-fonte.
uygar donduran

2

Você não deveria se importar. Se o tamanho é uma preocupação, eu usaria byte, short, int e long. O único motivo pelo qual você usaria um int maior que int32 é se precisar de um número maior que 2147483647 ou menor que -2147483648.

Fora isso, eu não me importaria, há muitos outros itens com os quais me preocupar.


Eu acrescentaria que você pode usar a palavra-chave "long" em vez de System.Int64
Keith

22
Você entendeu mal a pergunta. O OP está perguntando se há uma diferença entre as declarações "int i" e "Int32 i".
raven

2

Não faz diferença na prática e com o tempo você adotará sua própria convenção. Eu costumo usar a palavra-chave ao atribuir um tipo e a versão da classe ao usar métodos estáticos e:

int total = Int32.Parse("1009");


1

Uso int no caso em que a Microsoft altera a implementação padrão de um número inteiro para alguma nova versão distorcida (vamos chamá-lo de Int32b).

A Microsoft pode alterar o alias int para Int32b e não preciso alterar nenhum código para tirar proveito de sua nova (e esperamos melhorar) implementação de número inteiro.

O mesmo vale para qualquer palavra-chave do tipo.


0

Você não deve se importar com a maioria das linguagens de programação, a menos que precise escrever funções matemáticas muito específicas ou código otimizado para uma arquitetura específica ... Apenas verifique se o tamanho do tipo é suficiente para você (use algo maior que um Int se desejar saiba que você precisará de mais de 32 bits, por exemplo)


0

Não importa. int é a palavra-chave language e Int32 é seu tipo de sistema real.

Veja também minha resposta aqui para uma pergunta relacionada.


0

O uso de Int ou Int32 é o mesmo que Int é apenas açúcar para simplificar o código para o leitor.

Use a variante anulável Int? ou Int32? quando você trabalha com bancos de dados em campos que contêm nulo. Isso evitará muitos problemas de tempo de execução.


0

Alguns compiladores têm tamanhos diferentes para int em plataformas diferentes (não específicas do C #)

Alguns padrões de codificação (MISRA C) exigem que todos os tipos usados ​​tenham o tamanho especificado (por exemplo, Int32 e não int).

Também é bom especificar prefixos para diferentes variáveis ​​de tipo (por exemplo, b para bytes de 8 bits, w para palavras de 16 bits e l para palavras longas de 32 bits => Int32 lMyVariable)

Você deve se preocupar, pois torna seu código mais portátil e mais sustentável.

Portable pode não ser aplicável ao C # se você sempre usar o C # e a especificação do C # nunca será alterada nesse sentido.

O ihmo de manutenção sempre será aplicável, porque a pessoa que mantém seu código pode não estar ciente dessa especificação específica do C # e perder um bug, caso o int ocasionalmente se torne mais que 2147483647.

Em um loop for simples que conta, por exemplo, os meses do ano, você não se importa, mas quando você usa a variável em um contexto em que ela possa possivelmente fluir, você deve se importar.

Você também deve se preocupar se fará operações pouco a pouco sobre ele.


Não faz nenhuma diferença em .Net - int é sempre Int32 e longo é sempre Int64
Keith

It is also good to specify prefixes for different type variablesAtualmente, a notação húngara é amplamente obsoleta e a maioria dos estilos de codificação desencoraja o uso dela. Convenções internas de empresas de software também muitas vezes não permita que a notação
phuclv

0

O uso do Int32tipo requer uma referência de espaço para nome Systemou é totalmente qualificado ( System.Int32). Eu sou favorável int, porque não requer uma importação de namespace, reduzindo, portanto, a chance de colisão de namespace em alguns casos. Quando compilado para IL, não há diferença entre os dois.


0

De acordo com a janela imediata no Visual Studio 2012 Int32 é int, Int64 é longo. Aqui está a saída:

sizeof(int)
4
sizeof(Int32)
4
sizeof(Int64)
8
Int32
int
    base {System.ValueType}: System.ValueType
    MaxValue: 2147483647
    MinValue: -2147483648
Int64
long
    base {System.ValueType}: System.ValueType
    MaxValue: 9223372036854775807
    MinValue: -9223372036854775808
int
int
    base {System.ValueType}: System.ValueType
    MaxValue: 2147483647
    MinValue: -2147483648

0

Considere também Int16. Se você precisar armazenar um número inteiro na memória do seu aplicativo e estiver preocupado com a quantidade de memória usada, poderá usar o Int16, pois ele usa menos memória e possui um intervalo mínimo / máximo menor que o Int32 (que é o que int é .)


0

Há algum tempo, eu estava trabalhando em um projeto com a Microsoft quando recebemos a visita de alguém da equipe de produtos Microsoft .NET CLR. Essa pessoa codificou exemplos e, quando definiu suas variáveis, usou "Int32" vs. "int" e "String" vs. "string".

Lembrei-me de ver esse estilo em outro código de exemplo da Microsoft. Então, eu fiz algumas pesquisas e descobri que todo mundo diz que não há diferença entre o "Int32" e o "int", exceto pela coloração da sintaxe. De fato, encontrei muito material sugerindo que você use “Int32” para tornar seu código mais legível. Então, eu adotei o estilo.

Outro dia, encontrei uma diferença! O compilador não permite que você digite enum usando o "Int32", mas o faz quando você usa "int". Não me pergunte por que, porque ainda não sei.

Exemplo:

public  enum MyEnum : Int32
{
    AEnum = 0
}

Isso funciona.

public enum MyEnum : int
{
    AEnum = 0
}

Retirado de: Int32 notation vs. int

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.